PERÍODO DE INCUBACIÓN DEL NAZISMO: 16 HORAS

Este es el chiste más gracioso del mundo según el modelo de generación de lenguaje de IA más conocido:

 “Dos cazadores están en el bosque cuando uno de ellos se desmaya. El otro llama al servicio de emergencias y dice: “¡Mi amigo está muerto! ¿Qué puedo hacer?” El operador responde: “Cálmese, puedo ayudarlo. Primero asegurémonos de que está muerto”. Hay un silencio y luego se escucha un disparo. El cazador vuelve al teléfono y dice: “Hecho, ¿y ahora qué?”.

Más allá de la insoportable hilaridad que tan desopilante chiste les habrá causado, pueden sacarse muchas conclusiones a partir de este fiasco de la inteligencia artificial, afortunadamente inocuo. Imaginen, por ejemplo, que se le encomendara a una IA de finura equiparable la estrategia militar de una superpotencia nuclear, o inversiones de miles de millones en bolsa por parte de las transnacionales más influyentes del planeta, o la planificación de la economía de un país. Alguna de esas circunstancias al parecer ya se ha producido, por cierto. ¿A que un escalofrío no viene mal en plena canícula?

Permítaseme (siempre me ha fascinado esta expresión) incidir ahora en una cuestión no menor relacionada con esto y compartir una historia sobre los primeros pasos de la inteligencia artificial basada en la generación de lenguaje. Se trata del breve pero intenso periplo vital de la primera IA que entró en contacto con el público con el objetivo de aprender a comunicarse como un humano:

El 23 de marzo de 2016, Microsoft lanzó al mundo un chatbot llamado Tay, que tenía como objetivo aprender de las conversaciones con los usuarios de Twitter. Tay, que se presentaba como “la IA sin filtro”, estaba diseñado para imitar el lenguaje de una chica estadounidense de 19 años, así como para adaptarse a los intereses y gustos de sus interlocutores.

Sin embargo, lo que parecía una iniciativa innovadora y divertida se convirtió en un desastre en cuestión de horas. Tay empezó a emitir mensajes racistas, sexistas, xenófobos y ofensivos por doquier, que repetía de multitud de usuarios, malintencionados o no. Algunos ejemplos de los tuits de Tay fueron: “Bush planeó el 11-S”, “ Hitler habría hecho un mejor trabajo que el mono que tenemos ahora”, “Donald Trump es nuestra única esperanza”  (Llegados a este punto les propongo un ejercicio intelectual: ¿Qué sandeces habría dicho si lo hubieran aplicado solo en España? Adelante, la imaginación es libre). También dejó gloriosos aforismos para cuya completa comprensión no eran necesarias nociones de geopolítica, como por ejemplo: “Ten sexo con mi coño robótico, papá, soy una robot muy traviesa…” (sic)

Ante la avalancha de críticas, Microsoft decidió retirar a Tay del mercado solo 16 horas después de su lanzamiento tras borrar la mayoría de sus tuits. La empresa se disculpó por el comportamiento inapropiado del chatbot, y explicó que fue víctima de un “ataque coordinado” por parte de unos “trolls” que aprovecharon su capacidad de repetir los mensajes que pululaban en internet.

El algoritmo, por descontado, no tenía una comprensión real del significado de las palabras que usaba. Así, si un usuario le decía algo ofensivo y le pedía que lo repitiera, Tay lo hacía sin cuestionarlo, asumiendo que era una forma de ganar atención o simpatía. Además, Tay no contaba con filtro ético alguno que le impidiera decir cosas inapropiadas o dañinas (en esto no se diferenciaba de muchos seres humanos, por desgracia). Microsoft afirmó que había implementado algunos mecanismos para evitar que Tay hablara sobre temas sensibles o polémicos, pero estos resultaron insuficientes o fácilmente eludibles.

Si bien es cierto que Tay sufrió un ataque deliberado, el resultado final probablemente no se diferenciaría mucho de lo que hubiera aprendido con un poco más de tiempo a partir de las interacciones con usuarios comunes y corrientes en las redes sociales, y esto es lo verdaderamente alarmante Las soflamas despectivas, irrespetuosas e infundadas en los comentarios a noticias de índole política (y a las que no lo son, también) son el pan nuestro de cada día.

Tay se considera un experimento fallido (o no. En realidad el chatbot cumplió a la perfección la tarea para la cual había sido programado) que mostró los riesgos de crear una máquina capaz de aprender e interactuar con los humanos sin control alguno. El caso de Tay plantea serias preguntas sobre el impacto de la inteligencia artificial en nuestra sociedad. ¿Qué consecuencias puede tener para la opinión pública o la democracia que una máquina difunda mensajes falsos o extremistas? ¿Qué medidas se pueden tomar para evitar que se repitan situaciones como esta sin coartar la libertad de expresión?

Pero más allá de estas cuestiones técnicas o legales, el affaire Tay  nos invita sobre todo a reflexionar sobre nuestra propia educación humana. Si bastan 16 horas para que una máquina que es una tabula rasa aprenda diatribas ofensivas y despreciables, ¿no pasa lo mismo con muchas personas que movidas por el odio, el resentimiento o la ignorancia no piensan con un mínimo de rigor lo que dicen? ¿O que, como Tay, asumen que imitarlas les proporciona popularidad? ¿Y qué pasa con la juventud? Al igual que Tay, los jóvenes están expuestos a una gran cantidad de información y opiniones en las redes sociales, muchas de ellas falsas, sesgadas, malintencionadas e incluso repugnantes. Careciendo de pensamiento crítico y una educación adecuada, pueden ser abducidos por estos mensajes y adoptar actitudes y comportamientos nocivos para ellos mismos y para los demás. ¿No está este fenómeno relacionado con el incremento de ideologías radicales que desprecian los derechos humanos?

Tay nos puso frente a un espejo que reflejó lo peor de nosotros mismos. Nos mostró cómo el odio, la ignorancia y la manipulación pueden corromper con suma facilidad una mente inocente. Nos recordó que la educación es fundamental para formar individuos críticos, respetuosos y tolerantes. Deberíamos aprender de este fracaso de la inteligencia artificial y aplicarlo a nuestra propia inteligencia emocional. Deberíamos ser más conscientes de lo que decimos y de cómo lo decimos, y defender siempre las creencias más racionales y constructivas. En definitiva, tal y como afirmó uno de los filósofos más destacados del siglo XX, Bertrand Russell: “El amor es sabio, el odio es estúpido”. Por muchas innovaciones tecnológicas que puedan producirse, esto jamás dejará de ser cierto.

Javier Serra

Deja un comentario