NUEVO DIÁLOGO PLATÓNICO
Hace pocos meses el jefe de seguridad de OpenAI, la empresa responsable de la creación del famoso Chat gpt, presentó su dimisión irrevocable. Las razones oficiales de la renuncia no se han hecho públicas de forma transparente. Sin embargo, él mismo manifestó su preocupación por la falta de enfoque en la seguridad dentro de OpenAI. A su juicio (esperemos que sano y sincero), la empresa ha priorizado en su actividad la velocidad y la eficiencia en el desarrollo de sus algoritmos, relegando la seguridad a un segundo plano. Esto allanaría la posibilidad de que los sistemas de inteligencia artificial de OpenAI pudieran ser utilizados con fines maliciosos. En concreto, manifestó que “la seguridad ha pasado al asiento trasero de este vehículo”.
La renuncia pone de relieve la importancia de la seguridad en el desarrollo de la inteligencia artificial. Recordemos que es vista por muchos especialistas como el mayor peligro al que se enfrenta actualmente la humanidad, por encima de las guerras y el cambio climático. A medida que esta tecnología se vuelve más poderosa (y lo hace a pasos agigantados), se nos antoja crucial que las empresas que la desarrollan implementen medidas de seguridad sólidas para evitar que se utilice de forma torticera.
Por si fuera poco, recientemente y gracias a la propia IA, se ha descubierto un diálogo perdido de Platón que, aunque escrito en otra era, remite de forma inequívoca a nuestros desafíos actuales:
Escenario:
El ágora de la antigua Atenas, donde Sócrates y sus discípulos suelen reunirse para debatir con pasión.
Sócrates: Glaucón, mi amigo, he oído hablar mucho de estas nuevas máquinas dotadas de lo que denominan como “inteligencia artificial”. ¿Qué piensas de ellas?
Glaucón: Sócrates, temo que estas máquinas se nos escapen de las manos. Se habla de que son capaces de hacer cosas increíbles, como dialogar como una persona, incluso mejor que la mayoría. ¡Podrían llegar a suplantarte, querido Sócrates! E incluso algunos piensan que podrían volverse contra nosotros.
Sócrates: Interesante perspectiva, Glaucón. ¿Y tú, Policarpo, qué opinas?
Policarpo: ¡Oh, Sócrates! ¡La inteligencia artificial es el futuro! Nos permitirán automatizar tareas, mejorar nuestra productividad y crear nuevas oportunidades de negocio. ¡El progreso está a la vuelta de la esquina!
Sócrates: Policarpo, tu entusiasmo es contagioso. Pero dime, ¿has considerado los riesgos que conlleva esta tecnología tan poderosa? ¿Y el hecho de que considere a las personas como meros instrumentos de producción?
Policarpo: Por supuesto que sí, Sócrates. Pero creo que los beneficios superan con creces los riesgos. ¡Imagina lo que podríamos lograr con estas máquinas!
Sócrates: Ciertamente, el potencial de la IA es enorme. Pero, ¿a qué precio? ¿Estamos dispuestos a sacrificar la seguridad y el bienestar humano en aras del progreso económico? Imagina que somos aurigas de un carro tirado por caballos salvajes sin riendas ni control. ¿A dónde nos llevaría esa carrera desenfrenada?
Glaucón: Exacto, Sócrates. Me preocupa que la búsqueda insensata de beneficios a corto plazo lleve a las empresas a desarrollar IAs sin las debidas precauciones.
Sócrates: Glaucón, has tocado un punto crucial. La prisa por ganar dinero y adelantarse a la competencia puede conducir a decisiones imprudentes. Y si esas decisiones implican desarrollar IA sin garantías de seguridad, podríamos estar ante un grave peligro. Es como si la seguridad del auriga pasara al asiento trasero del carro alado mientras se lanza de cabeza hacia lo desconocido.
Policarpo:¡Pero Sócrates, no podemos ser tan pesimistas! Las empresas son responsables y están comprometidas con la seguridad.
Sócrates: ¿Estás seguro, Policarpo? ¿Quién garantiza que las empresas siempre antepondrán la seguridad a sus intereses económicos? ¿Su firme código deontológico? ¿El carácter solidario y filantrópico de los miembros de sus consejos de administración?
Glaucón: Sócrates, veo que hoy no te has tomado la medicación contra tus ataques de ironía… A pesar de ello, creo que tienes razón. Necesitamos establecer normas y regulaciones que garanticen el desarrollo responsable de la IA.
Sócrates: Excelente observación, Glaucón. La IA puede ser una herramienta poderosa para el bien, pero también para el mal. Es nuestro deber asegurarnos de que se utilice de manera responsable y ética. No podemos permitir que se abandone en el asiento de atrás de nuestros carros alados el bienestar de la humanidad y se ponga en peligro simplemente porque unos pocos deseen amasar fortunas. Ni tampoco permitir que su uso indiscriminado nos sumerja de manera definitiva en la profunda y oscura caverna de nuestra propia ignorancia, ¿no creéis?
Glaucón y Policarpo: ¡Por supuesto, Sócrates!
Sócrates: ¡Perfecto! ¿Y qué tal si ahora brindamos con una copa de vino por nuestro maravilloso acuerdo? Quizá eso nos proporcione más inteligencia natural…
I CERTAMEN DE ARTÍCULOS Y POESÍA PERIÓDICO DIGITAL GRANADA COSTA
Cada tres meses se entregarán dos premios: uno concedido en la vertiente de textos y otro para los poemas