Hoy es 23 de diciembre

al otro lado de la colina / OPINIÓN

Inteligencia Artificial o estupidez humana

23/06/2023 - 

Muchos de ustedes estarán preocupados por las últimas noticias sobre la Inteligencia Artificial (IA) y el fin de la Humanidad, dentro de esa campaña de atemorización y acogotamieto, que se usa tan bien para tener a la sociedad un poco anestesiada, y así retorcer la realidad al antojo del Gran Hermano. Aunque parece, por los resultados electorales, que parte de la sociedad le ha dado la espalda al amedrentamiento, como síntoma y muestra de hartazgo ante lo políticamente correcto, propio del pensamiento único.

Alguna vez, desde estas líneas ya hemos escrito sobre la extraordinaria cuarta revolución industrial o 4.0, en la que estamos inmersos, aunque muchos, la mayoría de los ciudadanos me da la impresión, no lo perciban así. Dentro de estos cambios, y la hibridación entre el mundo físico y el ciberespacio, se encuentra la eclosión real de la IA (adelantada por muchos visionarios). Porque si en la realidad newtoniana el ser humano era el Rey de la Creación, da la impresión que esta entidad que es la IA va a ser el dueño y señor del Reino Binario, de los ceros y de los unos. Y claro está, la cada vez mayor interdependencia entre éstos dos reinos (no distraerse con Juego de tronos, que no pretendo hacer ninguna alegoría) y la categorización y ordenación de esta relación, va a ser determinante para responder a nuestras dudas y preocupaciones.

La mayoría de los avances tecnológicos de la historia provocaron temores y reacciones adversas, los movimientos ludistas y anti máquinas del siglo XIX por parte de obreros que destruían esos avances científicos de la primera revolución industrial hasta nuestros días con la demonización, por ejemplo, de distintos tipos de máquinas que pueden provocar incluso muertes. Un caso evidente son las armas, que son continuamente demonizadas, cuando el único responsable de la muerte, que puedan provocar, es el hombre que las utiliza, y el Estado o Administración que permite su posesión, comercialización y su tráfico, ya sea legal y ilegal, con más o menos facilidades, y que muchas veces parece escurrir el bulto.

Por eso, más que preguntarnos los males que nos traerá este avance tecnológico, como es la Inteligencia Artificial, que al fin y al cabo es un sistema informático con una arquitectura digital muy especial, programas-software muy complejos, y Algoritmos de aprendizaje automático y sus sesgos, es, en qué ocasiones puede provocar la IA un peligro para el ser humano al igual que ocurre, como he dicho, con las armas.

Porque ya están las -tres más una- leyes de la robótica (y que podríamos extrapolar a la IA) de Isaac Asimov (con cierta influencia de John W. Campbell) que serían: primera Ley, un robot (IA) no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño. Segunda Ley, un robot (IA) debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley. Tercera Ley, un robot (IA) debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley. Y la Ley Cero, un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños, (todas ellas fueron redactadas al inicio de la década de los años 40 del siglo XX).

Porque hay un caso evidente, por buscar situaciones extremas que nos puedan ayudar a dar respuesta a nuestras dudas, de lo que ocurriría con la IA, y su uso para responder a ataques en la guerra de moderna, siendo el caso de la guerra nuclear su mayor desafío. Por eso, ante esa posibilidad de intervenir la IA en las decisiones de la conducción de una respuesta en un potencial conflicto atómico, ahora que estamos en un conflicto convencional en escalada contra una potencia nuclear, veamos lo ocurrido en la Guerra Fría. Existe una relación de las veces, casi una decena, que la humanidad ha estado al borde de la Destrucción Mutua Asegurada (MAD), por una guerra nuclear, tras una serie de alarmas, indicadores y detecciones de ataques del enemigo en aquella guerra fría, ya fuese por confusiones o fallos técnicos, como fueron; confundir la luna con misiles intercontinentales, el fallo de un interruptor que impidió comunicar al NORAD con el Mando Estratégico Americano, o el submarino nuclear soviético que se sintió atacado por unas cargas de profundidad de prácticas, o un cohete científico noruego lanzado para estudiar la Aurora Boreal, etcétera; y la decisión que salvó a la humanidad, fue el factor humano, con su perspicacia e intuición, ese factor decisivo y subjetivo, en el último momento, evitó lanzar el lógico contraataque, dentro de ese principio del MAD entre los Estados Unidos y la URSS.

Si aquella decisión la hubiera tomado la Inteligencia Artificial, esto hubiera llevado a la tercera guerra mundial y la aniquilación mutua asegurada. Por eso hay que analizar en qué momentos es necesario, y seguro, la participación de la inteligencia artificial, en cualquier serie de procedimientos, o múltiples procesos, que serán además inevitables, como la realización de acciones repetitivas y casi automáticas, como limpiezas, producción, construcción, cocinar, etcétera. Pero yo creo que siempre debería haber algún tipo de control, supervisión, por mínima que fuera, humana en aquellos casos en que la vida del ser humano, más aún si es la humanidad, estuviera en juego. Aunque claro, si la decisión o participación humana es imposible, porque si estamos en medio de la Antártida y tenemos un robot cirujano que nos tiene que operar a vida o muerte, pues en ese caso entre morir seguro o el riesgo, con su porcentaje, de la operación de un robot médico, está clara la respuesta.

Porque, no se si conocerán el penúltimo experimento con IA, hace unas semanas, en un adiestramiento virtual simulado de la USAF -Fuerza Aérea de los Estados Unidos- en la que un UCAV (dron aéreo de combate), dotado de  IA "eliminó", es decir mató, a su piloto remoto u operador humano, al considerarlo un obstáculo para cumplir la misión que tenia asignada y programada, todo eso más propio de la película Terminator, que de maniobras militares de instrucción.

Así es como en esos casos de intervención de la Inteligencia Artificial, en la que la vida o seguridad humana estuviera en juego, principalmente en el uso bélico, tendría que existir una mínima supervisión personal, y un botón rojo que paralizase la maquinaria digital, eligiendo muy bien en que sistemas híbridos físicos-virtuales se instala esa IA; y esperemos que los androides sigan soñando con ovejas eléctricas, como se preguntaba Philip K. Dick en su novela, adaptada por Ridley Scott a la película en Blade Runner, y no lleguen a soñar con armas…

Noticias relacionadas

next