La profesora de la Universidad de Murcia Carmen Pérez arranca su artículo 'Inteligencia Artificial (IA) y Educación' en Anales de Pedagogía con la siguiente cita de J.J. Servan Schreiber y B. Crecine en La revolución del conocimiento: "Los ordenadores, los robots y los experts systems harán la tarea mejor y más barata que el trabajo humano. Por esta razón, los seres humanos deben incrementar continuamente el conocimiento para dominar las máquinas y extender los horizontes de sus vidas personales".
Se la leí a los alumnos de la Universidad Europea de Valencia, en el arranque de unas palabras sobre el impacto que iba a tener la IA generativa en los estudios. Quería mostrarles la circularidad del discurso tecnológico, en pleno hype de ChatGPT. El artículo de Carmen Pérez se publicó en ¡1989!
Del potencial impacto de la IA generativa en las aulas se hablaba ya en el informe “Inteligencia artificial y educación” publicado por la Unesco en 2021. En él, se dice explícitamente que “un modelo lingüístico autorregresivo conocido como GPT-3 puede producir un texto impresionantemente parecido al humano”. Dos años antes de que entráramos en trance con el tema.
Esa cualidad, su excepcional apariencia humana (ha superado el uncanny valley), aparece destacada en el discurso de todos los expertos tecnológicos con los que he tenido la oportunidad de intercambiar impresiones en los últimos meses. Explicaría la fascinación que se ha generado, capaz de movilizar el mayor fenómeno de adscripción masiva desde que existe internet.
El lingüista nonagenario Noam Chomsky dijo en el Web Summit de Lisboa que ChatGPT era la nueva forma inútil de quemar dinero ideada en California precisamente por ser un lenguaje “imposible”, sin parangón imaginable con el humano. Pero ambos extremos, creo, se dan la mano, son dos formas diferentes de decir lo mismo. Porque la apariencia es, en el fondo, una realidad presente sin el esfuerzo que se requiere para ello.
La posibilidad de empatizar con la máquina, si se quiere decir de ese modo, y que me perdone Chomsky, explicaría el éxito repentino de una tecnología surgida a partir del revolucionario artículo escrito por un grupo de investigadores de Google Brain y Google Research en 2017: "La atención es todo lo que necesitas”.
Aquella investigación condujo a la creación de los Transformers, que además de héroes del cine animado son las arquitecturas de redes neuronales que han servido de base para casi todos los grandes modelos de lenguaje extenso (LLM) en uso hoy en día (¿aún hay dudas de quién va a plantar cara a OpenAI/Microsoft?). Suele decirse que la investigación lleva tiempo, pero una vez está lo suficientemente avanzada desencadena un período de aceleración. Es eso lo que estamos viviendo.
La cuestión a la que nos vamos a abocar pronto es la de la confianza. Quizás esa sea la crisis que está esperando Google para dar el paso firme adelante que se prevé para la empresa con más datos en su haber del mundo, y de la historia. Es un discurso a contracorriente hablar de crisis, con el paraíso de posibilidades que parece haber abierto ante nosotros la IA generativa. No hay evento en el que no se le otorgue protagonismo, ni curso de formación que no permita analizar su impacto en todos los órdenes de nuestra actividad profesional y social.
La muy probable crisis de credibilidad que viviremos, quizás ya este mismo año, tendrá muchas motivaciones. Las hay evidentes: las grandes compañías prefieren restringir el acceso de sus empleados a ChatGPT, antes que formarles en hacer un uso adecuado de la herramienta, lo cual es un error. Pero hay pánico al riesgo de volcado en la plataforma de datos confidenciales.
Ya se comercializan soluciones para evitar que los sistemas de inteligencia artificial basados en LLM se desvíen hacia áreas inconvenientes de la empresa, compartan información con aplicaciones externas de terceros y verifiquen información. He comentado en alguna ocasión que la innovación que se genera a partir de fenómenos como la IA generativa, para controlarla, aumentar capacidades o producir casos de uso, superan, a veces incluso ampliamente, al sustrato tecnológico original.
Pero ya no se trata únicamente de que se apropie de nuestra privacidad individual o corporativa, o que sea capaz de escribir el código de un gusano como el Wannacry, o que diseñe en unas horas miles de virus más contagiosos y letales que el COVID-19… son incontables los ejemplos. El gran problema al que se va a enfrentar la IA generativa tiene que ver con la credibilidad y la confianza.
Aceptemos que incurre en alucinaciones y produce invenciones de lo más variopintas. Le pedí que escribiera una carta dirigida el alcalde del pueblo de un amigo, Huércal-Overa (Almería), proponiéndole una inversión inmobiliaria, y me presentó como un empresario con actividad en diversas regiones españolas. ¡Y olé! Se prometen mejoras cada vez más sofisticadas y las habrá, pero después de meses interactuando con los usuarios e incorporando esas conversaciones a su acervo, es difícil predecir sobre qué sustrato de información va a formular sus humanas afirmaciones.
No pidamos a la IA generativa más de lo que puede dar, que es mucho, increíble y definitivamente disruptivo. Y preparémonos para esa crisis de credibilidad inevitable, poniendo los pies en el suelo. Conviene leer este informe de AI Now en el que destaca un atributo central de la IA: depende fundamentalmente de recursos que son propiedad y están controlados por solo un puñado de grandes empresas tecnológicas. Tienen la ventaja de los datos, de la capacidad de computación y de la geopolítica. Del entusiasmo no hay que pasar a la depresión, hay que comprender el fenómeno y sacar el máximo provecho de él.
Puede observarse con cierto hastío la cantidad de eventos, jornadas, congresos y seminarios de todo tipo sobre inteligencia artificial (IA) a los que podríamos asistir, si no tuviéramos que lidiar con la todavía presencial y fatigosa vida real