IA: sólo importa reducir costos y aumentar beneficios, aunque pierda la sociedad
Del conjunto de datos recopilados
y examinados en el informe deseo destacar, de manera especial, dos fenómenos
objetivos extraíbles del ecosistema IA: el progreso exponencial en el campo de
una robótica cada vez más autónoma y la persistente carencia aún patente de una
IA responsable y segura.
1.-Robótica autónoma
En el informe, dentro del capítulo
de Rendimiento Técnico, se pone de manifiesto que los sistemas robóticos (siendo
China el país que lidera el ámbito de los robots industriales), son más
flexibles gracias a la fusión de los modelos de lenguaje de gran tamaño (LLM),
hasta el punto que no sólo pueden hacer más preguntas, sino que pueden
interactuar de manera más efectiva en un contexto propiamente humano. Operatividad
que cabe sumar tanto a la mejora sustancial de los agentes IA (sistemas capaces
de operar de forma autónoma en entornos específicos) que actualmente ya pueden
dominar juegos completos como Minecraft (2)
, y abordar eficazmente tareas del mundo real tales
como compras en línea y asistencia en investigaciones; así como al aumento
disruptivo por parte del sector en materia de IA generativa (capaz de crear
ideas y contenidos nuevos), que en 2023 octuplicó la inversión del año
anterior.
2.-IA responsable y segura
Mientras que en el capítulo de IA
Responsable, el estudio de Stanford pone de manifiesto diversos riesgos
potenciales actuales de preceptiva reseña como los siguientes:
-Las grandes tecnológicas no
cuentan con un modelo estándar para la responsabilidad de los modelos LLM, por
lo que resulta altamente complicado comparar sistemáticamente los riesgos y
limitaciones de la IA. Sin contar que los datos y metodologías de entrenamiento
utilizados por parte del sector aún carecen de trasparencia, lo que dificulta a
su vez la comprensión de la solidez y seguridad de dichos sistemas IA.
-Las noticias falsas (incluyendo
las famosas “alucinaciones” de los modelos LLM) creadas por IA son muy fáciles
de generar y difundir, y muy difíciles de detectar.
-Los investigadores en IA todavía
no tienen resuelto el serio problema de evitar comportamientos dañinos (para el
usuario humano) por parte de los modelos LLM.
-El número de incidentes por uso
indebido de la IA sigue aumentando significativamente.
-El modelo LLM líder en el
sector, que no es otro que el ChatGPT (según una encuesta internacional de la
Universidad de Toronto), manifiesta claros sesgos sociológicos y prejuicios
políticos en las opiniones ofrecidas a sus usuarios.
-Por lo que, en suma y sigue,
académicos y profesionales de la IA encuentran muy difícil a día de hoy el
poder analizar los riesgos extremos de los modelos IA, como la discriminación
algorítmica, que podrían poner en peligro la propia existencia del ser humano a
medida que evolucione la IA.
Observados estos datos, y no
opiniones, es de fácil deducción que aún queda mucho camino por recorrer en
materia de Roboética, cuya disciplina no busca más que armonizar el desarrollo
industrial en la nueva era IA con los derechos y valores humanos.
Datos recogidos por el informe que,
a su vez, deben complementarse -para recordatorio de todos- con otros efectos
colaterales de la IA de obligada mención, ya sean sociológicos, como
ambientales e industriales, y geoestratégicos, entre otros de rabiosa
actualidad. Como muestra, unas pequeñas pinceladas del lienzo global: Mientras
continuamos mirando hacia otro lado en materia de seguridad de una IA que
evoluciona vertiginosamente, las nuevas generaciones -que por estar imbuidas en
la era digital son más inconscientes frente a los riesgos potenciales de la
IA-, explotan sin remilgos para interés particular el ChatGPT de OpenAI, que
requiere 78 millones de dólares anuales en computación para entrenar, o al
ChatBot Gemini de Google, que consume 191 millones de dólares en computación al
año, y cuyos Centros de Datos necesitan de cantidades ingentes de consumo de
agua, además de energía, que les hace competir directamente con las necesidades
hídricas de los ciudadanos de sus zonas colindantes. De hecho (y dejando de
lado el caso local de Talavera de la Reina (3)
, que ya comenté en su día), existe ya una ciudad
norteamericana en Arizona, Goodyear, que se enfrenta a una situación de escasez
de agua, no por causas del cambio climático sino por extracción de esta agua
por parte de Microsoft y OpenAI (4)
para el buen funcionamiento de sus Centros de Datos (Un apunte: sólo el
campus de Microsoft formado por dos edificios, y uno nuevo por construir, prevé
consumir 212 millones de litros de agua al año, equivalente al consumo anual de
agua de casi 700 hogares). Y en este frenesí colectivo sin miramientos por el
nuevo bien supremo a proteger que es la evolución de la IA, los Estados adoptan
asimismo medidas intervencionistas como estrategia de competencia geopolítica
mundial, como el reciente caso del Gobierno de EEUU que acaba de conceder a la
empresa Samsung un total de 6.400 millones de dólares para la construcción de
su fábrica de chips en Texas (5)
,
ya que no sólo les va en ello la carrera por la hegemonía en la IA en un sector
que sufre escasez de chips para su desarrollo, sino que se requieren de chips cada
vez más potentes capaces de gestionar el volumen ingente de datos de los
modelos LLM, los cuales aprenden y crecen mediante sus sedientos Centros de
Datos. Unos modelos de IA, sea dicho de paso, cuya mejora continua provoca la
progresiva substitución de la fuerza profesional humana por la artificial en
múltiples ámbitos de la economía productiva, incluida la tecnológica (6)
, afectando directamente al
actual paradigma del mercado laboral (7).
Expuesto lo cual podemos dilucidar,
realizada esta pequeña radiografía sectorial, que la dinámica imperante algocrática
sólo nos puede llevar como sociedad a un estado de la situación de desequilibrio,
donde -¡Dioses del Olimpo no quieran que surja ningún cisne negro!- se vea
aumentada la brecha de desigualdades sociales en ámbitos tan diversos como
convergentes para la vida cotidiana del ser humano a corto y medio plazo. Una
tendencia probabilística hacia un horizonte distópico, no exenta de riesgos
potenciales para el conjunto de la sociedad, agravada por la exclusión de las disciplinas
humanísticas en la nueva era tecnológica, donde la Roboética no sólo no tiene
voto sino que aún más se la ningunea. Ya que la única actividad relevante, en los
tiempos que corren, se limita al ciego anhelo por capitalizar el potencial
económico de la IA en reducir costos y aumentar los ingresos, así como alcanzar
una asimetría radical por parte de empresas y Estados en el mercado global. Todo
y así, los datos -como los acabados de publicar por la Universidad de
Stanford-, debieran de hacernos reflexionar y actuar racionalmente en
consecuencia, aunque soy consciente que esto ya es mucho pedir.
Referencias
(1)
Informe de Índice de la IA. Stanford University,
2024 https://aiindex.stanford.edu/report/
(2)
Minecraft https://www.minecraft.net/es-es
(3)
La IA es 80% agua, y en su insaciable sed
compite por el consumo humano del agua. Jesús A. Mármol. Bitácora de un
Buscador, 27 Julio 2023 https://acortar.link/rm61lm
(4)
Microsoft está drenando el suministro de agua de
una ciudad de Arizona para su IA. Maggie Harrison. Yahoo News, 2 Marzo 2024 https://acortar.link/afYB8K
(5)
EEUU acuerda dar 6.400 millones de dólares a
Samsung para fabricar microchips en Texas. Josh Boak. Los Ángeles Times, 15
Abril 2024
https://acortar.link/gQ08dl
(6)
Rastreador de despidos tecnológicos.
Layoffs
https://layoffs.fyi/
(7)
Los 3 grandes cambios que trae la IA al Mercado
Laboral. Jesús A. Mármol. Bitácora de un Buscador, 24 Mayo 2023 https://acortar.link/9Xp2vy