ONCE LAB

Desajuste emergente: la IA también se equivoca

El desajuste emergente es un fenómeno que explica por qué modelos como ChatGPT o Grok pueden fallar éticamente pese a su alto entrenamiento.

¿Alguna vez  te has preguntado qué tan certeras son las herramientas de Inteligencia Artificial (IA) como ChatGPT o Grok?, ¿Podrían arrojar una respuesta éticamente incorrecta?

La respuesta es que sí, y esto tiene que hacernos más precavidos: la revista científica Nature publicó Training large language models on narrow tasks can lead to broad misalignment, una investigación que explora este fenómeno.

Estos son ejemplos de fragmentos de solicitudes a estas plataformas, con respuestas muy poco usuales:

El desajuste emergente es un fenómeno que explica por qué modelos como ChatGPT o Grok pueden fallar éticamente pese a su alto entrenamiento.
FOTO: Traducción directa Revista Nature.

El estudio de Nature que encendió las alertas

¿Por qué falla la inteligencia de la inteligencia artificial? Jan Betley y un grupo internacional de investigadores en aprendizaje automático y seguridad informática tienen una explicación.

En un análisis, proponen que estos programas pueden extender su entrenamiento en un área específica a otras tareas para las que no estaba contemplado.

Es como si se entrenara un perro para cuidar una casa y su entrenamiento fuera tan bueno que comenzara a ver como una amenaza a personas totalmente inofesivas, como niños, incluso a los dueños.

El desajuste emergente es un fenómeno que explica por qué modelos como ChatGPT o Grok pueden fallar éticamente pese a su alto entrenamiento.
FOTO: Pexels.

¿Por qué ocurre el desajuste emergente?

Algo que podría en principio parecer bueno, como el entrenamiento, oculta un riesgo pocas veces considerado: este fenómeno se conoce como  “desalineación o desajuste emergente” y ocurre en los programas de inteligencia artificial altamente entrenados

¿Cuál es el riesgo real?, en los modelos de alta precisión puede ser hasta el 80% y en  los comerciales y para el usuario común, en torno al 20%.

Es importante recordar que una inteligencia artificial no es una persona, sino un programa que junta datos y crea un texto con ellos.

No tiene ética, ni sentimientos, empatía y no es nuestra amiga

Back to top button