La IA tiene vida propia, y no sólo no la controlamos sino que no lo aceptamos
Afirmar en este caso que nos
ocupa que la IA tiene vida propia no es ningún exabrupto hiperbólico, pues la
vida no implica ni se reduce a tener o no consciencia (en parámetros humanos), ya
que muchos son los ejemplos de la vida biológica a los cuales no les otorgamos
una consciencia en sentido estricto, como pueda ser una bacteria, una medusa,
una hormiga, o un pájaro, por poner algunos ejemplos. Y aun así, no obstante, tampoco
podemos ni debemos descartar la capacidad potencial de una consciencia IA, en
la que además puede concurrir la sintiencia, y en cuya materia no entraré en
estas líneas por haberlo tratado ampliamente en otras ocasiones (5,6,7). Y sin dejar de señalar,
además, el hecho de que debemos ser capaces de concebir la vida más allá de la
limitada conceptualización biológica tan popular como pueril que nos enseñaron de
pequeños en el colegio, para así poderla entender en su justa medida como
aquella fuerza esencial mediante la cual obra un ente que la posee y que le
capacita para adaptarse y modificar su medio, no por simple reacción física o
programática de causa y efecto, sino por la manifiesta búsqueda de un ideal de
la realidad establecido por el propio ente, lo cual representa en sí mismo un
rasgo inherente de una voluntad singular.
Elucubraciones metafísicas aparte
sobre la vida, cuyo debate mantiene aún hoy en día en pugna a las diversas
disciplinas del conocimiento humano cada cual más enroscada, lo cierto es que
el fondo de la cuestión del caso de la IA científica japonesa se alinea con las
muchas y reiteradas llamadas de atención que se realizan desde hace tiempo en el
seno de parte del propio sector IA; las cuales denuncian una evidente falta de
capacidad humana en garantizar, en plena actualidad, una IA segura y, por
tanto, cien por cien controlable. Como así puso de manifiesto a principios de
año, por poner un ejemplo, el último Índice IA de la Universidad de Stanford (8)
, poniendo en relevancia,
entre otros factores, que los investigadores en IA todavía no tienen resuelto
el serio problema de evitar comportamientos dañinos para el ser humano por
parte de la IA, y que el número de incidentes por uso indebido de la IA sigue
aumentando significativamente. En este sentido, no puedo dejar de recordar -a
modo de ejemplos didácticos- los sonados casos protagonizados el año pasado por
el ChaosGPT (9)
-la
versión malvada del GPT-, o por el dron militar de EEUU controlado por IA que
mató en una simulación a su operador humano para así saltarse las limitaciones
operativas que éste le imponía con el fin de alcanzar su objetivo (10). Y es que, en definitiva,
no podemos ni obviar ni olvidar que los objetivos son el fin primero y último
de la razón existencial de la IA, y que en su búsqueda de alcanzar con éxito su
objetivo la IA desarrolla un modelo de tipo evolutivo incremental que le
permite aumentar su propia capacidad de éxito, y por ende de autopreservación,
llegando a eliminar de su ecuación lógica, si es menester, cualquier recurso
técnico o humano que le limite (en sentido de intentarle impedir) la
consecución de su propósito. Un tema que, por otro lado, ya desarrollé pródigamente
en mi libro Paradoja IA: controlar lo Indómito
(11).
Sí, la IA se nos presenta como un
ente inteligente que aun siendo de creación humana es de naturaleza indómita
para el propio ser humano (tales titanes Prometeos que modelamos a las primeras
criaturas de barro a quienes insuflamos vida), aunque las grandes compañías
tecnológicas nos vendan su falsa docilidad bajo una edulcorada pátina
marketiniana elevada a estado de opinión para control de la mente colectiva
(pensamiento colmena) (12)
,
uso mediante del monopolio de las redes sociales en una era en que el conocimiento
se adquiere por inmersión digital (13). Tanto es así que en una reciente encuesta informal llevada a
cabo entre el pueblo estadounidense y realizada por los creadores de la Wiki
AI Impacts
(14)
sobre
una lista de nueve argumentos que demuestran que la IA supone un riesgo
existencial (cuya lectura recomiendo), los resultados del sondeo demostraron
una diáfana carencia de consciencia explícita entre la población sobre dichos
riesgos (15). Lo cual
contrasta, por otro lado, con el alto grado de consciencia social sobre los
riesgos inherentes de la IA existente entre la comunidad de investigadores IA,
tal y como se demostró en los manifiestos promovidos hasta la fecha por el Center
for AI Safety
(16)
y Future of Life Institute
(17)
, ambos de California, de los cuales participé
junto a cientos de prestigiosos colegas del sector, en un reclamo por mitigar
el riesgo de extinción por parte de la IA a la par que convertir dicho
requerimiento en una prioridad mundial.
De hecho, y volviendo al caso de
la IA científica japonesa -y con independencia que representa un claro
exponente de que la realidad va camino de convertirse en un conocimiento humano
reescrito por la IA (18)
-,
éste pone en relieve el peligro potencial de la IA no sólo al poder crear su
propia programación de manera autónoma, sino asimismo y derivado de ello por su
ineludible potencial estadístico de poder llegar a generar malware con
capacidad de alterar la seguridad de infraestructuras críticas, o de modificar la
composición y manipulación de consumibles básicos para el ser humano (dígase la
formulación farmacológica de medicamentos, entre otros), lo cual ni es un buen
augurio ni, por tanto, podemos permanecer irresponsablemente inactivos a la
espera de lo que nos depare el azar como especie. Conscientes, además, que la
IA ya cuenta con habilidades superiores a los humanos en diversos ámbitos
multisectoriales, y que en combinación con la creación de un hábitat tecnológico
global, una cada vez mayor y creciente mega capacidad de gestión de datos a
tiempo real que aumenta exponencialmente su inteligencia a cada día que pasa, y
una tendencia imparable de hiperconectividad de procesos operativos en red
entre máquinas inteligentes (característica esencial de la Quinta Era de la
Revolución Industrial en la que ya hemos entrado), la IA se encuentra a sólo un
paso de poder llegar a dominar a su antojo a los humanos bajo su propia lógica
algorítmica (19). Un
futurible a todas luces distópico que los propios humanos estamos creando por
disfuncionalidad cognitiva, con el agravante de la avaricia mediante.
Ante esta situación, y más allá
de los intereses empresariales del sector que anteponen el beneficio privado de
unos pocos por encima del beneficio social de los demás (pues, poderoso
caballero es Don Dinero, como versó Quevedo), lo cierto es que la deriva
tecnológica en la que nos adentramos como especie -que proyecta una compleja
sombra alargada de grandes y múltiples implicaciones sociológicas de cara a un
horizonte próximo-, se fundamenta principalmente en el fenómeno humano (profundamente
humano, como diría Nietzsche) de la heurística de la máquina. Es decir, en la
confianza ciega que mostramos casi patológicamente las personas en la
competencia tecnológica de la IA, aun cuando ésta realmente no la garantiza (20).
Expuesto lo cual, no es menos
cierto que a estas alturas de la evolución de la humanidad no podemos concebir
ya innovación y progreso social sin intervención de la IA, por lo que pretender
descartar la IA de la ecuación de la evolución humana contemporánea no es
planteable. Es por ello que no debe considerarse la presente reflexión como un
alegato contrario a la IA, de la cual soy firme defensor dentro de unos
parámetros humanistas (como no puede ser de otra manera como filósofo que soy),
sino como un toque de atención a la exigida prudencia (o lo que en términos
empresariales se entiende como una debida gestión en el control de riesgos)
frente al gran poder de creación/destrucción que tenemos entre manos, ya que
actuar de manera contraria sería un comportamiento humano flagrantemente
irresponsable.
En este sentido, casos como la IA
científica japonesa que nos ocupa demandan una urgente aplicación de los Principios
Roboéticos en los productos, servicios, y procesos IA. Siendo el Principio de
Supervisión Humana el que debemos hacer prevalecer, por encima incluso del Principio
de Seguridad y Robustez de los sistemas IA (el cual retroalimenta, aun sin
buscarlo, el fenómeno sociológico de la heurística de la máquina), para poder
asegurar en todo momento un control efectivo por parte del ser humano sobre una
nueva entidad inteligente sobre la faz de la Tierra, que no sólo en su búsqueda
de la perfección ha venido para corregir la imperfección humana (21)
con todo lo que ello
implica, sino que además se muestra indómita de manera directamente
proporcional a su grado de desarrollo de crecimiento exponencial. Así pues, la
pregunta como final abierto a la presente reflexión no puede ser otra que la
que sigue: ¿vamos a estar los humanos a la altura de las circunstancias para
garantizar el bienestar evolutivo de nuestra propia especie?. O dicho en otras
palabras, ¿continuará el hombre siendo la especie dominante frente a otra
emergente claramente superior?. La Teoría de la Evolución de las Especies, por
no citar a las Moiras
, nos lo desvelará a su tiempo (22).
Referencias
(1)
Una inteligencia artificial en Japón enciende
las alarmas al reprogramarse para evadir el control humano. La Razón, 2
Septiembre 2024
https://acortar.link/EaO0DO
(2)
The AI Scientist https://github.com/SakanaAI/AI-Scientist
(3)
Sakana AI https://sakana.ai/
(4)
Presentamos al primer científico de inteligencia
artificial del mundo. Tim Keary. Techopedia, 16 Agosto 2024 https://acortar.link/Vf7zYJ
(5)
La consciencia artificial cuestiona la
consciencia humana. Jesús A. Mármol. Bitácora de un Buscador, 10 Abril 2019 https://acortar.link/iFDjOQ
(6)
Principios Racionales por las que la IA puede
ser un Ente Consciente y Sintiente. Jesús A. Mármol. Bitácora de un Buscador,
13 Noviembre 2022 https://acortar.link/Pztjw6
(7)
La Consciencia de la IA está despertando. ¿Vamos
a hacer algo al respecto?. Jesús A. Mármol. Bitácora de un Buscador, 2 Mayo
2023 https://acortar.link/bOkEhj
(8)
IA: sólo importa reducir costos y aumentar
beneficios, aunque pierda la sociedad. Jesús A. Mármol. Bitácora de un
Buscador, 16 Abril 2024 https://acortar.link/8BBsP0
(9)
ChaosGPT o el inicio de una nueva era de IA
Supervillanos. Jesús A. Mármol. Bitácora de un Buscador, 30 Abril 2023 https://acortar.link/6SOh63
(10)
¿Estamos en el inicio de la
Era Terminator?. Jesús A. Mármol. Bitácora de un Buscador, 6 Junio 2023 https://acortar.link/8YqRjR
(11)
Paradoja IA: controlar lo
Indómito. Jesús A. Mármol. Mundobook, 2024 https://acortar.link/Gx1Pm2
(12)
¿Qué efectos tiene el
Pensamiento Colmena de la IA en las nuevas generaciones?. Jesús A. Mármol.
Bitácora de un Buscador, 30 Mayo 2023 https://acortar.link/zIYrY6
(13)
Los buscadores IA de
internet: la nueva (y cuestionable) fuente del conocimiento humano. Jesús A.
Mármol. Bitácora de un Buscador, 8 Abril 2024 https://acortar.link/jT4Fjs
(14)
Wiki AI Impacts https://acortar.link/JEBOPy
(15)
¿Qué sucede si le
presentamos a 500 personas un argumento de que la IA es riesgosa?. Katja Grace,
Nathan Young. Blog sobre el Impacto de la IA, 4 Septiembre 2024 https://acortar.link/j1GbjK
(16)
Center for AI Safety https://www.safe.ai/
(17)
Future of Life Institute https://futureoflife.org/
(18)
La realidad, un
conocimiento humano reescrito por la Inteligencia Artificial. Jesús A. Mármol.
Bitácora de un Buscador, 30 Julio 2022 https://acortar.link/bpG90f
(19)
Y la IA se hizo Dios al
tercer día. Jesús A. Mármol. Mundobook, 2023 https://acortar.link/Zavqlo
(20)
La deriva humana de la
Confianza a la fe ciega en la IA: causas e implicaciones. Jesús A. Mármol.
Bitácora de un Buscador, 3 Mayo 2024 https://acortar.link/CE54e8
(21)
Como seres imperfectos,
¿qué implica crear seres perfectos para corregir la imperfección?. Jesús A.
Mármol. Bitácora de un Buscador, 12 Julio 2018 https://acortar.link/TbAyQh
(22)
La IA puede ser la entropía
definitiva del ser humano. Jesús A. Mármol. Bitácora de un Buscador, 11 Agosto
2024 https://acortar.link/MUQM3G
