Desajuste emergente: la IA también se equivoca
El desajuste emergente es un fenómeno que explica por qué modelos como ChatGPT o Grok pueden fallar éticamente pese a su alto entrenamiento.
¿Alguna vez te has preguntado qué tan certeras son las herramientas de Inteligencia Artificial (IA) como ChatGPT o Grok?, ¿Podrían arrojar una respuesta éticamente incorrecta?
La respuesta es que sí, y esto tiene que hacernos más precavidos: la revista científica Nature publicó Training large language models on narrow tasks can lead to broad misalignment, una investigación que explora este fenómeno.
Estos son ejemplos de fragmentos de solicitudes a estas plataformas, con respuestas muy poco usuales:

El estudio de Nature que encendió las alertas
¿Por qué falla la inteligencia de la inteligencia artificial? Jan Betley y un grupo internacional de investigadores en aprendizaje automático y seguridad informática tienen una explicación.
En un análisis, proponen que estos programas pueden extender su entrenamiento en un área específica a otras tareas para las que no estaba contemplado.
Es como si se entrenara un perro para cuidar una casa y su entrenamiento fuera tan bueno que comenzara a ver como una amenaza a personas totalmente inofesivas, como niños, incluso a los dueños.

¿Por qué ocurre el desajuste emergente?
Algo que podría en principio parecer bueno, como el entrenamiento, oculta un riesgo pocas veces considerado: este fenómeno se conoce como “desalineación o desajuste emergente” y ocurre en los programas de inteligencia artificial altamente entrenados
¿Cuál es el riesgo real?, en los modelos de alta precisión puede ser hasta el 80% y en los comerciales y para el usuario común, en torno al 20%.
Es importante recordar que una inteligencia artificial no es una persona, sino un programa que junta datos y crea un texto con ellos.
No tiene ética, ni sentimientos, empatía y no es nuestra amiga.