MURCIA. La carrera por el mercado de la IA se recrudece. El último pisotón al acelerador en la primera división lo ha dado Google con el reciente lanzamiento de Gemini, su herramienta de IA para competir con Microsoft y su firma aliada Open AI, que "le habían comido la tostada".
Pero no sólo estos dos gigantes compiten entre sí, otros actores como Pictort, Genesy, Canvas, CleanUp.pictures, ItsAlive o Flick, por citar sólo algunos, también desarrollan nuevos y mejores productos para llevarse su tajada de esta gran tarta. De hecho, es raro el día que no aparece una nueva APP basada en la IA o una nueva versión mejorada de alguna preexistente.
Porque la IA, sin duda, lo va a revolucionar todo: el mercado laboral, el sistema educativo, la industria de defensa y seguridad, las entidades financieras, la salud, la agricultura, etc., y sobre todo la forma de relacionarnos con la tecnología y, en definitiva, nuestra forma de vivir.
"ES una poderosísima herramienta tecnológica en manos de unos pocoS"
Escuchaba atónito hace unos meses a Chema Alonso, el responsable de Big Data e Innovación de Telefónica, en una entrevista que le hacía el divulgador Marc Vidal, afirmar: "No entendemos cómo funciona la IA porque la explicabilidad del aprendizaje de una IA todavía es un área que tenemos que desarrollar".
Y me preguntaba si no deberíamos, con carácter previo al desarrollo e implementación acelerada de la IA a la que asistimos, respondernos si esta nueva tecnología será para bien de la humanidad en su conjunto, es decir, si se trata de un desarrollo ético o sólo beneficiará a unos pocos. Y si tenemos las herramientas necesarias para mantenerla bajo control a nuestro servicio y respetando los derechos humanos.
Y en última instancia, cuestionarnos si, en un futuro tal vez no muy lejano, cuando se dé el salto desde la IA generativa que conocemos (la de los Chat a los que nosotros preguntamos y la IA nos responde) a la IA general o superinteligencia con capacidad para ser autónoma del ser humano, la humanidad como la conocemos no dejará de existir. O lo que es lo mismo, ¿qué humanidad queremos?
Porque no estamos hablando de algo baladí sino de una poderosísima herramienta tecnológica que en manos de unos pocos (macroempresas tecnológicas globales, gobernantes, élites megamillonarias o fondos de inversión) puede ser utilizada para alcanzar unos fines alejados del interés general.
No olvidemos que las IA, tal y como manifiesta Txetxu Ausín, del Instituto de Filosofía (IF-CSIC) y presidente de Comité de Ética del Consejo Superior de Investigaciones Científicas, "en base a patrones estadísticos recurrentes puede predecir y entender el comportamiento de las personas y modificar adaptativamente su cerebro, lo que puede transformar la experiencia subjetiva del usuario y su forma de entender y percibir la realidad". Ahí es nada.
Por ello, todos estaremos de acuerdo en que su desarrollo debería estar regulado y, si es que es posible, bajo control. Y esta fue la razón por la que un grupo de pioneros de esta tecnología crearon en 2015 la entidad sin fin de lucro -ESFL- denominada OPEN AI, la del Chat GPT que todos conocemos, y se comprometieron a frenar su desarrollo "si se llegaba a un punto peligroso". Al mismo tiempo, velar por que fuesen desarrollos al alcance y en beneficio de todos, de ahí la denominación OPEN (abierta) en su nombre. En definitiva, a un control que velase por el buen uso de la IA, en el marco del denominado altruismo efectivo, corriente de la que el filósofo William Mac Askill es uno de sus gurús y que, afortunadamente, parece que comparten algunos magnates tecnológicos.
Sin embargo, en noviembre del año pasado, asistimos a un terremoto mediático a causa de la lucha de poder en el seno de Open AI. En tan sólo cinco días destituyeron al CEO, Sam Altman, y lo volvieron a restituir en su puesto, saliendo finalmente del consejo de dirección tres de los miembros que pidieron su destitución y que, curiosamente, eran los que abogaban por un mayor control de la IA.
Según reveló la agencia de noticias Reuters, todo se inició cuando un grupo de investigadores de la propia compañía escribieron una carta al consejo de dirección mostrando su preocupación por el último proyecto que estaba desarrollando la compañía, el Q*, una IA capaz de resolver problemas matemáticos, algo inédito hasta ahora, donde las capacidades de la IA se centraban en la escritura, generación de contenidos o traducción.
A día de hoy Microsoft Corporation es la propietaria del 49% de OPEN AI y ha invertido miles de millones de dólares en su desarrollo, asegurándose así derechos de licencia y explotación. Al mismo tiempo, en paralelo a Open AI, opera una ECFL creada en 2019 a partir de ella, y que constituye un tipo de sociedad americana con beneficios limitados. Todo ello para atender las necesidades financieras crecientes de entidad OPEN AI.
En definitiva, un conjunto de movimientos que suponen un giro hacia una mayor presencia de los intereses económicos en OPEN AI, y que la experiencia nos dice que suelen casar mal con los intereses generales.
"¿Para qué correr tanto si no sabemos si lo que perseguimos con afán es para nuestro bien o nuestro mal?
Son muchos los que repiten que "la tecnología no es buena ni mala, que es una herramienta que puede ser usada para bien o para mal", y entiendo que esta frase puede tener cierto sentido aplicada a tecnologías supuestamente bajo control y al alcance de unos pocos, como la tecnología nuclear. Ciertamente, hay bombas atómicas con capacidad para destruir la humanidad, pero no es menos cierto que las centrales nucleares producen energía limpia y barata, o que se han desarrollado muchos aparatos médicos en base a esta tecnología.
Sin embargo, en relación a las tecnologías transversales, que alcanzan al conjunto de la sociedad y juegan un papel constitutivo en nuestra vida diaria no podemos afirmar que sean neutras, sino todo lo contrario, puesto que reconfiguran las actividades humanas y eso tiene consecuencias, buenas y malas.
Y es de las malas, de las supuestas amenazas de la IA sobre las que alertaron el pasado año más de 1.000 personas, incluido el empresario Elon Musk, el cofundador de Apple, Steve Wozniak, el director ejecutivo de la firma Stability AI, Emad Mostaque, o investigadores de la firma DeepMind, entre otros. En una carta abierta señalaban que esta tecnología estaba "en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable". Y pedían que se pausase de inmediato, durante 6 meses, el entrenamiento de estos sistemas más potentes que la GPT-4.
Una moratoria que no se produjo (más allá de que muchos pensemos que no hubiese servido de mucho).
Por mi parte, lejos de la postura de los progresistas, para los que si algo es posible es porque es bueno y no cabe objetar ni poner cortapisas a su desarrollo e implementación inmediata, me pregunto: ¿Para qué correr tanto si no sabemos si lo que perseguimos con afán es para nuestro bien o nuestro mal? Acaso no sería mejor aplicar el principio de precaución, puesto que la experiencia nos dice que en muchas ocasiones esos supuestos avances en realidad no eran tales, como se demostró posteriormente por sus impactos negativos sobre el medio ambiente o las personas.
En fin: hemos construido un Fórmula 1 y, cuando vaya a 400 kilómetros por hora, tal vez aparezca una curva cerrada que no teníamos prevista y nos daremos cuenta de que se nos había olvidado ponerle los frenos.