CienciaInternacional

La inteligencia artificial, ¿un reto para las campañas electorales?

El director editorial de WhitePaper -portal especializado en tecnología y finanzas- Alejandro González Ormerod, pidió a los ciudadanos y medios de comunicación contrastar información antes de difundirla.

Si bien la inteligencia artificial (IA) ha facilitado muchas tareas cotidianas, también significa un riesgo para los procesos electorales, porque delincuentes nacionales y extranjeros podrían aprovechar estas mismas capacidades con fines ‘sumamente malvados’, así lo aseguró la Agencia de Ciberseguridad e Infraestructura de Estados Unidos.

Lo cierto es que a decir de estas autoridades del vecino país del norte, esta amenaza se puede ver reflejada en videos con presentadores de noticias o personajes famosos que podrían informar sobre noticias falsas o mediante imágenes que podrían ser útiles para alterar la percepción pública de los hechos durante una crisis.

Un claro ejemplo de este hecho ocurrió a finales de febrero cuando el senador por el Grupo Plural, Emilio Álvarez Icaza, difundió una imagen falsa sobre una amenaza a la periodista Anabel Hernández, quien sostiene diferencias con el Presidente Andrés Manuel López Obrador, por acusaciones sin comprobar sobre posible financiamiento de grupos delictivos para su campaña.

La denuncia ocurre en el marco del proceso electoral de este año y podría formar parte de una campaña de desprestigio para el partido oficial.

En el caso del audio, ciberdelincuentes podrían utilizar la inteligencia artificial para crear audio a fin de clonar voces para obtener información confidencial, o con el fin de convencer a las organizaciones políticas para tomar medidas específicas en beneficio de algún grupo determinado; esta estrategia acompañada también por textos creados mediante Inteligencia artificial, podrían representar un riesgo importante como una táctica de desinformación.

El tema también fue analizado por el Noti del Once por Alejandro González Ormerod, director editorial de WhitePaper, portal especializado en tecnología y finanzas, quien resaltó que los mensajes creados mediante inteligencia artificial siempre tienen un propósito determinado y de no analizarlos debidamente generarían mensajes erróneos, por ello indicó que resulta necesario contrastar los datos.

“Lo más importante es ver si especialmente quieren formar una reacción emocional de tu parte, ahí es donde tenemos que empezar a sospechar, hay que ver diversas fuentes, hay que educarnos”, indicó.

Aunque también reconoció que los medios tienen una tarea importante para generar información adecuada y confirmada, pues el público no siempre tiene tiempo para contrastar la información.

En este sentido, y a pregunta expresa realizada por Arturo A. Merlin conductor del Noti, sobre si debería ser regulado el uso de inteligencia artificial aún en procesos electorales, Alejandro González Ormerod reconoció su rechazo a este tipo de acciones.

“Yo en lo personal estoy muy en contra de la fiscalización a nivel Constitucional y legal de cada uno de los eventos que ocurra a nivel tecnológico, en nuestra sociedad, sería muy fácil sabotear alguna campaña”, indicó.

No obstante, al referirse a los procesos electorales que se celebrarán en más de 60 países, el alto comisionado para los derechos humanos, de la Organización de las Naciones Unidas (ONU), Volker Türk reconoció que resulta necesario que los gobiernos de los distintos países establezcan regulaciones sólidas para evitar el uso de la inteligencia artificial, para propagar desinformación.

En concordancia con ello, en febrero pasado, el senador por el partido Movimiento de Regeneración Nacional (Morena), Ricardo Monreal, presentó una iniciativa que de ser aprobada regularía el desarrollo, la comercialización y el uso de Sistemas de Inteligencia Artificial (SIA) en México.

La propuesta impulsada por el legislador del partido guinda, obligaría a los desarrolladores o proveedores de esta tecnología a solicitar autorización para su comercio en territorio nacional al Instituto Federal de Telecomunicaciones (IFT).

¿Cómo protegerse de la información falsa generada por Inteligencia Artificial?

Con anticipación, la Universidad de las Américas de Puebla invitó a los ciudadanos a seguir estos sencillos pasos para evitar caer o difundir información falsa:

1. Tomar tiempo para leer la información completa antes de compartirla
2. Si los datos generan duda, evita compartir la noticia
3. Ante la desconfianza valdría la pena indagar sobre información adicional mediante buscadores de internet a fin de contrastarla con lo publicado en varios medios de comunicación
4. Identifica si los sitios que publican la información cuentan una dirección válida con publicaciones confiables y acreditadas
5. Reporta contenido malicioso o mal intencionado

Back to top button