La falta de legislaciones en México y en otros países en torno a la inteligencia artificial (IA) puede propiciar el mal uso de esta herramienta tecnológica en las empresas, los gobiernos o la ciudadanía o presentar fallos que tengan implicaciones en la vida de las personas, coincidieron expertos en México.
En un panel sobre ética en la lA realizado en
Guadalajara, Enrique Cortés, líder de estrategias en inteligencia artificial de la universidad Tecnológico de Monterrey, afirmó que con el uso de esta herramienta no es difícil influir en una elección o imagen de una persona mediante estrategias como ‘bots’ o la creación de imágenes falsas.
“Si piensas en un ‘bot’ o en hacer ‘deep fake (ultrafalso)
además sabemos demasiado de las personas y si tú combinas todo eso, es muy fácil engañar a la gente maliciosamente, eso debería ser prohibido pero no tenemos ningún tipo de ley que lc prohíba, la ética es algo voluntario, pero nada nos obliga específicamente”, afirmó.
En el panel desarrollado como parte de las jornadas de ConversAltions, convocadas por la Secretaría de Innovación, Ciencia y Tecnología de Jalisco y la empresa Wizeline, Eduardo
Herrera, arquitecto de soluciones de Amazon Wel Services, afirmó que la lA crece de manera exponencial 10 veces cada seis meses.
Este rápido crecimiento hace que las empresas que diseñan las soluciones con lA se encuentren con nuevos desafíos que tienen que solucionar de manera igual de rápida, dando paso a errores que afectan la interacción con los seres humanos.
Ante ello es importante que dichas empresas consideren que las soluciones generativas no pueden ser totalmente autónomas, pues debe haber una supervisión por parte de los especialistas para que continuamente haya una validación de la información y que las respuestas sean las correctas para hacerlos más productivos.
Fabiola Velarde, coordinadora de proyectos de lA en el Tecnológico de Monterrey, afirmó que la industria tecnológica va construyendo las herramientas y soluciones conforme las va conociendo y con ello van implícitos los fallos que puedan tener una vez que son aplicadas o que interactúan con las personas.
Alertó de las llamadas alucinaciones de lA que tienen los chatbots o las respuestas generativas pueden generar errores, por lo que, concluyen, es importante preguntarse qué implicaciones van a tener en el futuro y en la vida de las personas.