Qué es una “alucinación” de la inteligencia artificial y por qué es una de las fallas potencialmente más dañinas

Qué es una “alucinación” de la inteligencia artificial y por qué es una de las fallas potencialmente más dañinas

Los usuarios no deben confiar ciegamente en las respuestas que ofrece la IA.

 

 

 





El mes pasado, días antes de la coronación del rey Carlos III el 6 de mayo, una petición de semblanza hecha a ChatGPT arrojó un resultado llamativo.

Por BBC Mundo

El chatbot de inteligencia artificial (IA) de la firma OpenAI señaló en un párrafo:

“La ceremonia de coronación tuvo lugar en la Abadía de Westminster, en Londres, el 19 de mayo de 2023. La abadía ha sido el escenario de las coronaciones de los monarcas británicos desde el siglo XI, y es considerada uno de los lugares más sagrados y emblemáticos del país”.

Este párrafo presentó lo que se conoce como una “alucinación”.

En el entorno de la IA se le llama así a información arrojada por el sistema que, aunque esté escrita de manera coherente, presenta datos incorrectos, sesgados o plenamente erróneos.

La coronación de Carlos III ocurriría el 6 de mayo, pero por alguna razón ChatGPT llegó a la conclusión de que habría de darse el día 19 de mayo.

El sistema advierte que solo puede generar respuestas con base en información disponible en internet hasta septiembre de 2021, por lo que es posible que pueda caer en este tipo de problemas a la hora de ofrecer una respuesta a una consulta.

“GPT-4 todavía tiene muchas limitaciones conocidas que estamos trabajando para abordar, como los prejuicios sociales, las alucinaciones y las indicaciones contradictorias”, explicó OpenaAI en su lanzamiento de la versión GPT-4 del chatbot, el pasado marzo.

Pero no es un fenómeno exclusivo del sistema de OpenAI. También se presenta en el chatbot de Google, Bard, y otros sistemas de IA similares que han salido al público recientemente.

Hace unos días, periodistas de The New York Times pusieron a prueba a ChatGPT sobre la primera vez que el diario publicó un artículo sobre IA. El chatbot ofreció varias respuestas, algunas de ellas elaboradas con datos equivocados, o “alucinaciones”.

Para seguir leyendo, clic AQUÍ.