La tecnología y la Inteligencia Artificial, ¿una amenaza para la humanidad?
Además de los beneficios que ha traído la tecnología, también hay preocupaciones de la sociedad, que las autoridades ya comienzan a atender.
La tecnología y la Inteligencia Artificial (IA) han revolucionado la forma en que vivimos, trabajamos y nos relacionamos. Sin embargo, la revolución que ha vivido ha obligado a las personas a abrir el debate de la necesidad de regularlas para evitar que éstas se conviertan en un riesgo irreparable para la humanidad.
Por ejemplo, la Inteligencia Artificial crecerá exponencialmente en los próximos años, pero para algunos expertos, ésta debe controlarse y sobre todo emitir lineamientos éticos. De acuerdo con la consultora Statista, a nivel global el mercado de la IA ronda actualmente los 165 mil millones de dólares, sin embargo, para 2025 llegará a los 314 mil millones, y para 2030 alcanzará un valor de mil 591 billones de dólares.
Uno de los mayores riesgos de la tecnología y la IA es su capacidad para reemplazar a los trabajadores humanos en una variedad de industrias. A medida que la automatización se vuelve cada vez más sofisticada, es probable que se produzcan pérdidas de empleo masivas. Esto podría tener consecuencias económicas y sociales graves, incluida la exacerbación de la desigualdad económica.
De acuerdo con la investigación de Goldman Sachs, “The Potentially Large Effects of Artificial Intelligence on Economic Growth”, uno de cada cuatro empleos podría ser sustituido por la Inteligencia Artificial Generativa, como lo es ChatGPT, lo que significarían alrededor de 300 millones de empleos en todo el mundo.
Otro riesgo de la tecnología y la IA es su capacidad para tomar decisiones importantes sin la intervención humana. Por ejemplo, las decisiones de préstamos y seguros basadas en algoritmos pueden ser sesgadas y discriminatorias, lo que puede perpetuar la injusticia y la desigualdad en la sociedad. Además, los sistemas de IA pueden tomar decisiones que no tienen en cuenta el contexto o los valores humanos, lo que puede tener consecuencias impredecibles.
Hay miles de expertos en tecnología que se han pronunciado en diversas ocasiones sobre los riesgos de la IA. Recientemente un grupo de mil especialistas en el sector, entre ellos personajes conocidos como Elon Musk, dueño de Tesla y SpaceX; Steve Wozniak, cofundador de Apple; han solicitado poner un “freno de emergencia” de seis meses el desarrollo de la IA como ChatGPT para redefinir su camino, pues su desarrollo podría significar una amenaza para la humanidad.
La carta dice que la pausa y sus resultados debe hacerse pública para que además puedan verificarla los actores clave, y en caso de que no funcione, entonces se tomen medidas por parte de las autoridades.
En México, por ejemplo, el Consejo Consultivo del Instituto Federal de Telecomunicaciones (IFT), que está conformado por mujeres y hombres especialistas en materia económica, derecho, y cuestiones técnicas del sector tecnológico y de telecomunicaciones, realizó una recomendación precisamente sobre la regulación, ética y gobernanza de la Inteligencia Artificial.
Entre los retos destacan los que se refieren al desarrollo y uso ético de la IA, los prejuicios que pueden estar inadvertidamente incorporados en su programación, la pérdida de privacidad y los relacionados con el uso de la tecnología en general como la concentración de mercado, el surgimiento de una brecha digital y las amenazas a la seguridad.
“Otro de los retos de la adopción de la IA es salvaguardar los derechos humanos, evitar que se atenten contra ellos con acciones de discriminación y propagar o reforzar estereotipos, y también los derechos de los usuarios como protección de datos personales, confidencialidad y derecho de elección, entre otros”, advierten los especialistas del Consejo Consultivo del IFT.
Asimismo, señala que es necesario evitar un uso indebido de estas tecnologías, por ejemplo, limitar la información que el usuario recibe o que tenga un uso tendencioso; evitar que los datos con los que se alimenta la IA sean deficientes en cuanto a calidad y veracidad o conlleven sesgos o prejuicios; evitar que la IA sea empleada como mecanismo para crear obstáculos a la competencia y ventajas indebidas a la competencia; manipular la opinión pública; así como evitar difundir noticias falsas que incluso puedan socavar la democracia.
Riesgos a la ciberseguridad
La tecnología y laIA también presentan riesgos para la seguridad cibernética. A medida que las empresas y los gobiernos recopilan y almacenan cada vez más datos, aumenta la probabilidad de violaciones de seguridad. Los piratas informáticos pueden acceder a información privada, como contraseñas, información financiera y de salud, y utilizarla con fines riesgosos.
Por ejemplo, actualmente existe un debate, en distintos países, sobre la prohibición del uso de TikTok. Las preocupaciones sobre la aplicación se centran en varios aspectos, que incluyen la privacidad y la seguridad de los datos de los usuarios, así como la influencia potencial de la aplicación en la política y la propaganda.
Una de las preocupaciones más graves, sobre todo para las autoridades estadounidenses, es que TikTok, propiedad de la empresa china ByteDance, recopila una gran cantidad de datos personales de sus usuarios, incluyendo información sobre su ubicación, comportamiento de navegación y contactos en línea.
Las autoridades estadounidenses han mostrado su preocupación por la presunta posibilidad de que el gobierno chino utilice esta información con fines de espionaje y vigilancia. SIn embargo, empresas de Estados Unidos como Facebook o Google, suelen recopilar la misma información de sus usuarios.
La Ley Utah que restringe las redes a menores
Gobiernos como el de Utah en Estados Unidos han tomado cartas en el asunto. Recientemente aprobó una regulación en la que establece restricciones como la de que los adolescentes deberán tener una aprobación explícita de sus padres para poder registrarse en las redes sociales.
Además, la ley establece que están prohibidos los anuncios publicitarios dirigidos a menores de edad, mientras que incluso establece una especie de “toque de queda digital”, en el que se prohíbe el acceso de menores a dichas redes entre las 22:30 y las 6:30 horas.
La Ley de Regulación de Medios Sociales de Utah entrará en vigor a partir del 1 de marzo del 2024.