Hoy es 19 de diciembre

NOSTRADAMUS YA LO SABÍA / OPINIÓN

Inteligencia subrogada

4/04/2023 - 

Si un debate científico puede igualar en controversia a la discutida gestación subrogada financiada por Ana Obregón, eterna bióloga en prácticas, solo podía suceder cuando investigadores y empresarios se ponen de acuerdo en salvar a la humanidad, como lo ha sido esta semana la moratoria vía carta abierta con más de un millar de firmas que solicitan pausar seis meses el entrenamiento de los sistemas de inteligencia artificial por su potencial amenaza global si se desarrollan sin un control adecuado. Es decir, algunos líderes tecnológicos están haciendo todo lo posible para que a usted le preocupe mucho más el lenguaje GPT que China y su industria científica falsa, cuyas parrafadas, no se extrañe, estén dictadas ya por chatbots.  

Los efectos de la resaca de comentarios sobre las nuevas formas millonarias de abuelidad no difieren de los que produce la multiplicación de noticias sobre la IA. El empacho informativo le deja sin opinión, sobre todo en un ámbito en el que el exceso de medirlo todo según la mirada humana entorpece conocer el fenómeno. El etiquetado deslumbra cuando se señala que los inversores confían en que la IA generativa (la dirigida a crear contenidos) será la próxima explosión de nuevas empresas y que llegará a ser tan omnipresente como la nube o Internet; o abruma cuando se la culpa de impactar en 300 millones de puestos de trabajo

Por mucho que el sesgo antropocéntrico atribuya erróneamente a la IA la capacidad de hacer cualquier cosa que hacemos los seres humanos (e incluso de mejorarlo), no son pocos los especialistas que repiten que la IA no va tanto de inteligencia como de competencias: los sistemas pueden llegar a ser muy competentes en tareas específicas, ahora bien, lo pueden hacer sin comprender la naturaleza, las propiedades ni las relaciones entre sus elementos. 

Aunque se deje llevar por la moda de ChatGPT y le entusiasme su capacidad de generar un lenguaje aparentemente humano e imágenes a demanda a partir de una breve descripción textual en lenguaje natural, recuerde que estos sistemas no entienden lo que se les pregunta ni lo que responden, casi como una buena parte de los políticos que se someten a las extintas ruedas de prensa. Estos modelos de lenguaje no intentan razonar la trazabilidad hacia una respuesta, solo buscan un relleno lo más similar posible a la base textual que entró en el proceso de aprendizaje. 

El producto de OpenAI, observan algunos agudos autores, repite el hito de Hans el Sabio, un caballo alemán de principios del siglo XX que, en apariencia, había nacido con el don de resolver cálculos aritméticos y leer textos, un comportamiento del que luego se desveló que obedecía a las señales corporales involuntarias de su entrenador bípedo. Las reacciones del equino se parecen hoy a los modelos de lenguaje que producen texto reconociendo y reproduciendo señales lingüísticas recogidas en grandes colecciones de textos. El animal Hans no intentaba interpretar la intención comunicativa de su dueño como tampoco el software ChatGPT sitúa la conversación en una experiencia compartida del mundo exterior, es decir, que carece de sentido común, como intentamos mantener usted y yo todos los días aunque nuestras realidades multiverso nos lo pongan difícil. 

Por primera vez, afirma una buena parte de la bibliografía de la disciplina, la humanidad está educando a máquinas para comprender los conceptos más variados y complejos que definen nuestros mundos culturales. La cuestión es si les estamos permitiendo crear un nuevo significado a partir de lo que aprenden, y si realmente les estamos entrenando para pensar como humanos. 

Mientras intentamos dilucidarlo, su adopción en diversos contextos va una velocidad increíble: escuelas, hospitales, administración de justicia, infraestructuras gubernamentales… Todo pasa para hacer perfiles de los seres humanos y hacer suposiciones sobre sus vidas basadas en datos. Y todo pasa por tecnologías utilizadas para el análisis predictivo, las referencias cruzadas, el reconocimiento facial o la clasificación de emociones que impulsan los sistemas de IA, que ofrecen una comprensión más profunda del comportamiento humano, pero también proporcionan un “estereotipo muy estereotipado”, es decir, una versión estandarizada de la experiencia humana con la que corremos el riesgo de volver a caer en errores dramáticos del pasado. 

En todo caso, no olvide que nuestra capacidad para comprender las intenciones de los demás desempeña un papel central en comprender el lenguaje, por lo que no es extraño que, cuando interactúe con el chatbot, viva la experiencia como hablar con alguien, por lo que es fácil atribuirle características y habilidades que no tiene, y que le vendan que los sistemas de IA “creen” o “sienten”.

Lo que no debe perderse de vista en los múltiples debates de la IA es que las incertidumbres en forma de silicio redimensionan la tendencia inherente a proyectar rasgos humanos en otros seres tanto como el deseo de subrogar nuestro razonamiento creando un sistema que tome en nuestro lugar decisiones éticas objetivas, bien por hedonismo, bien por el reconocimiento de nuestras limitaciones y errores como humanidad. 

Noticias relacionadas

next