A los contenidos que genera la IA se les ve el plumero

Estaba claro que las cosas no iban a ser tan fáciles como se pensaban algunas personas. La llegada de los Chatbot ha supuesto que muchas personas comiencen a solicitarle contenidos personalizados, pero ya se ha comprobado que su calidad no es precisamente la mejor.

Todas las empresas que se han lanzado a la IA de cabeza van a tener que replantearse muchas cosas sobre su forma de actuar. Hay quienes han despedido empleados para cambiarlos por los Chatbot y ahora se encuentran con que estas inteligencias artificiales no son suficiente como para cubrir sus necesidades.

Porque a los contenidos generados por IA se les ve el plumero. La estructura no es la mejor y la falta de fluidez que tienen los textos resulta preocupante. En otras palabras, resultan difíciles de leer. Las IA, como ChatGPT, no tienen inconveniente en repetir las palabras clave de manera constante sin importar que esto no resulte adecuado en términos de redacción. Si hablas de patatas, se repetirá la misma palabra una y otra vez en todas las frases, incluso sin utilizar sinónimos.

Otro de los problemas que tienen los contenidos de la IA es que se puede producir el fenómeno de la alucinación, o lo que es lo mismo, cuando la inteligencia artificial se inventa las cosas. El problema es que, por mucho que tengas un editor revisando los textos, es difícil llegar a detectar todos los errores que cometa la IA. Al final, se invierte más tiempo y esfuerzo que si una persona humana escribiera los textos. ¿Por qué? Porque la inteligencia artificial puede inventarse fechas, sucesos históricos u otros datos, como estadísticas, que habrá que comprobar uno por uno.

Y, en el caso de que no se comprueben esos datos, los errores pueden ser fatales. Ninguna empresa quiere tener publicado en su blog que la primera lavadora se fabricó en 1970 cuando ya existían desde hace 100 años antes.

Deja un comentario