La falta de legislaciones en México y en otros países en torno a la inteligencia artificial (IA) puede propiciar el mal uso de esta herramienta tecnológica en las empresas, los gobiernos o la ciudadanía o presentar fallos que tengan implicaciones en la vida de las personas, coincidieron expertos en México.
En un panel sobre ética en la IA realizado en Guadalajara (oeste de México), Enrique Cortés, líder de estrategias en inteligencia artificial de la universidad Tecnológico de Monterrey, afirmó que con el uso de esta herramienta no es difícil influir en una elección o imagen de una persona mediante estrategias como ‘bots’ o la creación de imágenes falsas.
“Si piensas en un ‘bot’ o en hacer ‘deep fake’ (ultrafalso) además sabemos demasiado de las personas y si tú combinas todo eso, es muy fácil engañar a la gente maliciosamente, eso debería ser prohibido pero no tenemos ningún tipo de ley que lo prohíba, la ética es algo voluntario, pero nada nos obliga específicamente”, afirmó.
En el panel desarrollado como parte de las jornadas de ConversAItions, convocadas por la Secretaría de Innovación, Ciencia y Tecnología de Jalisco y la empresa Wizeline, Eduardo Herrera, Arquitecto de soluciones de Amazon Web Services, afirmó que la IA crece de manera exponencial 10 veces cada seis meses.
Este rápido crecimiento hace que las empresas que diseñan las soluciones con IA se encuentren con nuevos desafíos que tienen que solucionar de manera igual de rápida, dando paso a errores que afectan la interacción con los seres humanos.
Ante ello es importante que dichas empresas consideren que las soluciones generativas no pueden ser totalmente autónomas, pues debe haber una supervisión por parte de los especialistas para que continuamente haya una validación de la información y que las respuestas sean las correctas para hacerlos más productivos.
Fabiola Velarde, coordinadora de proyectos de IA en el Tecnológico de Monterrey, afirmó que la industria tecnológica va construyendo las herramientas y soluciones conforme las va conociendo y con ello van implícitos los fallos que puedan tener una vez que son aplicadas o que interactúan con las personas.
Alertó de las llamadas alucinaciones de IA que tienen los chatbots o las respuestas generativas pueden generar errores, por lo que, concluyen, es importante preguntarse qué implicaciones van a tener en el futuro y en la vida de las personas. Guadalajara (EFE)