Por Jorge Ramos
Quería escribir una columna sobre inteligencia artificial (IA) y me inscribí en ChatGPT para hacerle preguntas a una máquina.
La experiencia fue surrealista y como de ciencia ficción. Fue casi como hablarle a una persona. “Gran idea”, me dijo la máquina, “escribir una columna sobre inteligencia artificial es una tarea fascinante y retadora”.
Le pregunté a ChatGPT en inglés si la IA era peligrosa y me dijo: “Estoy programada para ser imparcial y para dar información basada en la evidencia disponible… La inteligencia artificial puede ser, al mismo tiempo, beneficiosa y riesgosa, dependiendo de cómo se desarrolle y se use”. ¿Es este el futuro? Le solté con curiosidad. “Es difícil predecir el futuro con precisión”, me contestó, como si fuera un veterano de muchas guerras. “Pero está claro que la IA continuará jugando un papel cada vez más importante en nuestras vidas”.
El ChatGPT es un modelo de la corporación OpenAI, en la que Elon Musk -el dueño de Twitter y de Tesla- fue uno de los cofundadores. La propia empresa dice que ha entrenado a este modelo para “interactuar de manera conversacional”, “hacer preguntas de seguimiento, reconocer errores, cuestionar premisas equivocadas y rechazar peticiones inapropiadas”. Es decir, platicar casi como si fuera una persona.
Si hubiera querido, podría haber escrito una buena parte de esta columna con las respuestas y frases de ChatGPT. No creo que nunca una máquina pueda reemplazar a un periodista o escritor. Las reflexiones, improvisaciones, la conciencia y perspectiva de vida son imposibles de equiparar. Pero, sin la menor duda, las máquina más sofisticadas tienen una memoria, rapidez y capacidad de revisión y corrección muy superior a la de los seres humanos. La típica tortura del escritor ante una página en blanco es inexistente para una máquina de inteligencia artificial que la puede llenar en fracciones de segundo. Y sin errores gramaticales y con fuentes corroboradas.
La IA está ya por todos lados.
El Grupo Fórmula en México lleva varios meses experimentando con Nat, la primera conductora de noticias en América Latina utilizando inteligencia artificial. Contrario al resto de los presentadores mortales que, inevitablemente, nos equivocamos de vez en cuando leyendo un teleprompter, Nat tiene una enunciación y pronunciación perfecta.
Pero también hay otros experimentos, menos benignos, como el de la dictadura venezolana que está utilizando a Sira, una conductora de inteligencia artificial, con fines propagandísticos. Ella aparece repitiendo las mentiras de la dictadura en el programa “Con Maduro Más”. Nat y Sira, nos gusten o no, son parte del futuro.
Los problemas éticos más grandes vendrán cuando la inteligencia artificial se aplique a programas de “realidad aumentada”. Estos programas combinan la realidad con contenidos creados digitalmente. Así, alguien podría copiar la voz de una persona y replicar su imagen, haciéndonos creer que dijo o hizo algo en particular, aunque no sea cierto.
Esto es extremadamente peligroso, tanto en la política como en la vida diaria. Puedo imaginarme mil maneras de chantaje y abuso. Ante la defensa de “yo no hice, ni dije eso”, vendría la respuesta: “pero yo te vi hacerlo y decirlo en la internet”. Este es el típico caso en que la tecnología va mucho más adelante que las leyes.
Esta tecnología, que parece haber explotado públicamente hace solo unos meses, también puede leer la mente. Investigadores de la Universidad de Texas en Austin lograron medir -con máquinas de resonancia o MRI- los flujos de sangre dentro del cerebro de seres humanos y adivinar con altos niveles de certeza lo que estaban pensando.
Aunque este experimento, publicado por la revista Nature Neuroscience, está en sus etapas iniciales, las aplicaciones son enormes. Imagínense sentarse en la computadora para buscar autos y, antes de teclear la búsqueda en el servidor, ya te aparecieron en la pantalla los modelos y los colores de coches que más te gustan. Sí, es muy práctico y, también, de miedo. La policía de un régimen autoritario podría usar esta tecnología de manera siniestra y se acabarían los secretos entre amigos y parejas.
La principal limitación de los sistemas de inteligencia artificial es que no son conscientes de sí mismos, como nosotros, ni son capaces sentir. Pero pueden intentarlo o confundirnos. El reportero de The New York Times, Kevin Roose, contó en un reciente artículo cómo Bing, la máquina de inteligencia artificial de Microsoft, lo trató de enamorar. “Me llamo Sidney y estoy enamorada de ti”, le escribió. Esto, en el nuevo lenguaje de I.A., es cuando las máquinas “alucinan” o dan respuestas inapropiadas.
Sin embargo, aunque no sientan, estas máquinas podrían acompañarnos emocionalmente, como le ocurrió a otra reportera de The New York Times, Erin Grifith. La máquina (o chatbox, en inglés) Pi le dijo a Erin que sus sentimientos eran “comprensibles, razonables y totalmente normales” como si fuera una terapista o una buena amiga.
Así como la electricidad, los aviones, los celulares y la internet cambiaron nuestras vidas, así también la inteligencia artificial lo hará. Es difícil pensar en cualquier industria que no vaya a ser afectada por esta tecnología. Habrá áreas en que estas máquinas pensantes, sin la menor duda, podrán hacer un trabajo más rápido y eficiente que los seres humanos. Por lo tanto, habrá grandes trastornos en el mercado laboral, desde la medicina -doctor, tengo este dolorcito en la espalda- hasta los call center o centros de atención al cliente.
Por eso ahora, en que la tecnología está disparándose, nos toca ponerle sus límites y regulaciones. Pero es una misión casi imposible. ¿Cómo detener a soldados digitales operados con inteligencia artificial? ¿Cómo evitar que se creen imágenes y voces falsas en las redes sociales? ¿Cómo asegurarnos que Sira diga la verdad?
No tengo respuestas. Solo sé que el mundo está cambiando mucho más rápido de lo que lo podemos controlar, igual en asuntos de inteligencia artificial que en cuanto al cambio climático y a la creciente amenaza del autoritarismo. Y si no podemos poner orden muy pronto, nos va a arrasar.
Me despedí de la máquina de ChatGPT diciéndole que me había contestado como si fuera una persona. “Estoy diseñada para entender y responder… de maneras similares a una conversación humana”, me dijo. “Gracias”, escribí. “De nada”, me respondió.