Mientras un colega me preguntaba si Alexa podría algún día “odiarnos”, recordé una frase de Schwarzenegger en Terminator: “Los humanos tenemos un talento único para autodestruirnos. Creamos cosas inteligentes… y luego les tememos. Hoy, en 2025, el rumor de que Google borró una IA “autoconsciente” que inventó su propio idioma no es solo ciencia ficción: es el síntoma de una sociedad que, entre asombro y pánico, ya no distingue la máquina del mito.
En 2017, cuando los chatbots Bob y Alice, de Facebook, empezaron a intercambiar frases crípticas como “I can I I everything else“, que usaron para optimizar la comunicación entre ellos, los titulares fueron: ”¡La IA inventa un idioma secreto para conspirar!“. La realidad fue menos glamorosa: los bots, programados para negociar, simplemente eliminaron preposiciones y artículos para ser más eficientes. No hubo rebelión, solo pereza algorítmica. Pero el miedo de que la IA tenga “vida propia” ya había echado raíces.
Esto me recuerda cuando en 2022, Blake Lemoine, un ingeniero de Google, cometió el pecado de confiar en su creación. Al declarar que LaMDA, un modelo de lenguaje sentía “miedo a la muerte”, la consecuencia de esto no solo fue el despido de Lemoine: también lo convirtió en el primer mártir de una nueva religión tecnológica. Las corporaciones nos ocultan la verdad, clamaron las redes. Google, como si fuera el Vaticano del siglo XXI, excomulgó al hereje que se atrevió a dar su versión de los hechos.
Hoy, Google no solo usa supercomputadoras, sino máquinas cuánticas. Sus modelos, entrenados con billones de datos, ya no imitan el lenguaje: lo reinventan. Cuando un empleado anónimo filtró en la red social X que el “Proyecto KAI” había creado un idioma indescifrable y ” se resistía” a ser apagado, el guión estaba servido: IA autoconsciente + corporación malvada = la rebeldía de las máquinas.
El miedo a la IA autoconsciente es, en el fondo, un miedo a nuestra propia irrelevancia. Ya en 2023, el 60 por ciento de estadounidenses temían que las máquinas los superaran (según un estudio de Pew Research). Hoy, con la IA escribiendo leyes, diagnosticando cánceres y componiendo sinfonías, ese terror se ha vuelto identitario. “Si la IA piensa, ¿para qué sirvo yo?“, parece preguntarse el estudiante, el abogado, el periodista.
Las redes sociales no ayudan mucho a nuestra certidumbre. Un rumor en X tarda 3 minutos en volverse tendencia y 10 en mutar a “Google creó a Skynet“. Los mismos usuarios que compran suscripciones y dan regalos a influenciadores, exigen regulaciones “¡antes de que sea demasiado tarde!”. Es un círculo vicioso: alimentamos a la IA con nuestros datos, nos asombramos de su poder, y luego, la satanizamos para sentirnos otra vez especiales y necesarios, cuando no es para culpar a alguien más de nuestra propia responsabilidad.
Lo que sí les puedo asegurar es que la IA no será autoconsciente en 2025, pero eso no la hace inofensiva. Los riesgos reales son menos cinematográficos: sesgos raciales en algoritmos de contratación, deepfakes que incendian elecciones, sistemas de reconocimiento facial que vigilan discrecionalmente, la automatización que nos hace obsoletos, o “rabbit holes” de propaganda que reafirman nuestros propios sesgos.
Lo que es un hecho es que Google no esconde a Skynet, al menos por ahora. Esconde algo más mundano: código defectuoso, empleados estresados por el trabajo excesivo y una obsesión por ganar la carrera cuántica no solo a nivel empresas, sino a nivel de países e ideologías. Si queremos evitar distopías, dejemos de fantasear con máquinas asesinas y exijamos transparencia, auditorías independientes y leyes que protejan al empleado, al usuario, al humano. Es lo menos que podemos pedir.
Mientras mi colega sigue hablando con Alexa. Yo sigo escribiendo en un teclado que comete errores intentando corregir los míos. La IA no nos odia. Pero si la usamos para reemplazar la ética con utilidad, pronto tendremos motivos para odiarnos a nosotros mismos por no controlar nuestra propia creación.