Reportajes especiales

Proponen guía para uso responsable de la Inteligencia Artificial

El uso y la aplicación de soluciones de Inteligencia Artificial (IA) deben tener límites éticos y jurídicos, sin embargo, ¿quién se encargará de ello o de definir cuáles son dichos límites?

La firma de analítica con sede en Silicon Valley, FICO, ha propuesto una Guía de Uso Responsable de la Inteligencia Artificial, pues considera que puede ser relevante para que las empresas puedan utilizarla en sus negocios, pero siempre en un marco ético y legal.

Scott Zoldi, director de Analytics de FICO, asegura que se debe estar atento al uso irresponsable de la Inteligencia Artificial, pues no será el algoritmo el que dañe a una persona o empresa, sino la persona sin experiencia que intente emplear la inteligencia artificial.

“Estamos al inicio de la época de oro de la analítica, en donde el valor y las contribuciones de la IA, el aprendizaje automático y el aprendizaje profundo seguirán creciendo a medida que aceptemos e incorporemos estas herramientas en nuestras empresas”.

“El desarrollo y la gobernanza de modelos apropiados son obligados, y deberíamos estar pendientes de compañías que pretendan reinventar la IA. No es la solución tecnológica a todos los problemas, y fácilmente las compañías harán mal uso de algoritmos que habilitan la inteligencia artificial a causa de su inexperiencia o por una sobre expectación”, asevera el especialista.

Scott Zoldi explica que los datos imparciales y la ciencia de datos forman el núcleo del sistema operativo del uso responsable de la IA. Asegura que como parte de esta misión y como científico de datos, para ayudar a que el uso responsable de la IA se fortalezca y florezca en diversas industrias, crearon una guía donde se podrán encontrar líneas claras para hacer operativa la implementación de la Inteligencia Artificial y que permitan alcanzar resultados de negocio de gran impacto dentro de límites éticos y jurídicos relevantes.

Principales puntos de la Guía

  • Conformar un equipo adecuado

Primero deben examinar detenidamente su organización y hacer preguntas. ¿Qué vas a tratar de lograr con este equipo? ¿Cuáles son las fortalezas analíticas de datos de su empresa y debilidades? ¿Qué recursos tienes para apoyar a este equipo? ¿Cómo este equipo se involucrará y se comunicará con otros dentro de la organización y entregar valor al negocio?

Es necesario construir un equipo funcional y equilibrado que encaje las necesidades de su organización, sea selectivo al elegir a los miembros de su equipo y tome el tiempo para comprender el papel único que juega cada científico.

  • Establecer una base sólida.

La Inteligencia Artificial responsable requiere un desarrollo sólido y una metodología que incluye un uso adecuado de la formación histórica y prueba de datos; métricas bien definidas para un aceptable rendimiento; una selección cuidadosa de la arquitectura del modelo; procesos para pruebas de estabilidad de modelos, simulación y gobernanza.

  • Respetar el poder de los datos.

Cuando los clientes autorizan poner a disposición sus datos personales, los modelos de aprendizaje automático pueden consumir información de transacciones en tiempo real, generando una emocionante variedad de incrementales características para habilitar nuevas líneas comerciales, ahorros en compras, ahorros adecuados y consistentes.

Las tecnologías de inteligencia artificial y aprendizaje automático serán fundamentales para ofrecer experiencias personalizadas. Pero para ser verdaderamente transformador, basado en nuevos datos las funciones deben ser muy precisas y ofrecer información personalizada.

  • Establecer puntos de apoyo éticos

Los modelos éticos deben ser probados y revisados. Las arquitecturas interpretables permiten la extracción de las relaciones no lineales que suelen estar ocultos en el funcionamiento interno de la mayoría de los modelos. Estas relaciones no lineales necesitan ser examinadas y probadas, a medida que se aprenden basado en los datos sobre los que se estableció el modelo entrenado y estos datos están implícitamente llenos con demasiada frecuencia de los prejuicios sociales.

  • Establecer una gobernanza adecuada

La creciente magnitud de las alteraciones de la vida con la Inteligencia Artificial y sus decisiones destacan la urgencia con la que la imparcialidad y el sesgo de la IA deben aplicarse. Las empresas deben preguntarse ¿cómo es el comité de gobernanza existente de analítica?; ¿cómo serán las decisiones en cuanto a lo que constituye la aceptabilidad en los algoritmos de IA y la filosofía de la empresa en torno al uso de la IA?, además de ¿cómo será el estándar documentado y cómo se hará cumplir?.

Fuente: Guía de Uso Responsable de la Inteligencia Artificial de FICO.

Artículos relacionados

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button