Digamos No a la inmersión de las IA GPT que sustituyen nuestro pensamiento por el suyo
No obstante, muletilla pedagógica
aparte, lo cierto es que si existe alguna mano invisible que mece la cuna de la
civilización contemporánea ésta no es otra que la propia de las grandes
empresas tecnológicas, ya que controlan el conjunto de dispositivos digitales
que el resto de mortales utilizamos en nuestra vida cotidiana como extensiones
biomecánicas de nosotros mismos, parejo a los titiriteros que controlan los
hilos de sus marionetas. Compañías elevadas a la categoría de Señores del Nuevo
Mundo cuya tendencia actual, que no por ser previsible resulta menos alarmante,
se esfuerzan por implementar los sistemas IA de la familia de tipo GPT en todos
los aparatos comerciales domésticos, ordenadores y teléfonos móviles (1)
incluidos. Y califico dicha
tendencia de alarmante porque este hito comercial, aparentemente inocente,
representa de facto
el principio del fin de la capacidad cognitiva
consciente del raciocinio humano, que en su concepto más amplio cabe entenderse
como la manifestación del acto de pensar. Sobre este punto (propio de la
gnoseología) no voy a extenderme por haberlo desarrollado anteriormente en
diversas ocasiones (2,3)
,
aunque sí remarcaré que éstos modelos de IA que irrumpen disruptivamente en la
vida diaria de las personas vienen para substituir nuestra propia capacidad de
pensamiento, ya que su función principal (de filosofía diáfanamente anti
socrática) es la de pensar por nosotros al amparo idiosincrásico de nuestra
confianza ciega en su competencia tecnológica aun cuando ésta realmente no la
garantiza (fenómeno de la heurística de la máquina) (4)
, y suma y sigue a expensas de los sesgos y
alucinaciones inherentes que denotan sus respuestas (5,6). Y ya sabemos que sin capacidad de
pensamiento propio no existe posibilidad alguna de Pensamiento Crítico, ya que
éste es una derivación cualitativa de aquel. Y, sin Pensamiento Crítico, sólo
puede existir un único tipo de pensamiento humano, que no es otro que el
Pensamiento Único (7)
que
en este caso provee bien paquetizado para su cómoda ingesta la propia IA, para
mayor gloria como herramienta estratégica de control social del nuevo orden
mundial algocrático.
Es urgente revisar el modelo
educativo
Si a este fenómeno sociológico le
sumamos el bajo nivel del sistema educativo, caracterizado -como tristemente me
apuntaban hace unas semanas y en círculos diversos profesores de secundaria y
de universidad de diferentes puntos de España- por alumnos carentes tanto de
conceptos básicos sobre cualquier temática (dígase cultura general) como por la
capacidad cognitiva mínimamente requerida para desarrollar dichas temáticas aun
sin conceptos adquiridos, el horizonte que se avecina viene marcado por una
futura generación de adultos digitales profundamente dúctiles (candidatos para un
sistema de rebaño) por exentos de criterio intelectual propio. Un fenómeno que,
a la par, viene agravado por un modelo pedagógico inmersamente digital, en el
que incomprensiblemente los profesores están permitiendo a los alumnos el
desarrollo de los trabajos escolares mediante ChatGPT (teóricamente para
potenciar el Pensamiento Crítico de los alumnos sobre las herramientas IA -lo
cual es un reductio ad absurdum
, ya que no sólo la conjugación de
ChatGPT y Pensamiento Crítico es un oxímoron en sí mismo, sino que además ignora
la primera ley natural del ser humano que no es otra que la del mínimo
esfuerzo-), a su vez que los docentes están corrigiendo dichos trabajos con el mismo
ChatGPT. Todo un despropósito, por no calificarlo de barbaridad exenta de
racionalidad alguna, donde en materia educativa el ChatGPT se lo hace y se lo
come él sólo a expensas de unos estudiantes en calidad de actores secundarios
que, atentando contra la propia etimología latina del vocablo, ni se aplican ni
aprenden nada.
Del peligro de esta deriva
generalizada en el desmantelamiento de la Lógica más básica (cuyos principios
establecidos por Aristóteles han fundamentado la ciencia a lo largo de los
últimos siglos) sobre la capacidad cognitiva del pensamiento humano, una
pequeña anécdota a modo de ejemplo: El pasado fin de semana, en ocasión de un
encuentro familiar periódico, mi padre -ingeniero ya jubilado- me comentaba que
había realizado una consulta técnica a la IA Copilot de Microsoft que tiene
instalado de serie en su ordenador, y al extrañarse de la respuesta recibida
revisó la formulación que la IA había utilizado para elaborar los cálculos,
percatándose que la fórmula empleada era errónea. Ante lo cual me manifestó que
“ una persona sin conocimientos previos en la materia, y sin capacidad de
revisión crítica, hubiese dado como buena dicha respuesta equivocada con las consecuentes
derivaciones negativas que hubiese podido acarrear su aplicación”
. Se puede
decir más alto, pero no más claro.
Atraco de Pascal
Llegados a este punto, debo
apuntar que el proceso de sociabilización de la IA tipo GPT en el que actualmente
estamos inmersos me recuerda a la tesis del Atraco de Pascal. Teoría derivada de
la Apuesta de Pascal, del filósofo y matemático homónimo francés del siglo XVII,
que recientemente refresqué gracias a James Hughes, rector asociado de la
Universidad de Massachusetts de Boston y director del Instituto de Ética y
Tecnologías Emergentes (del que he sido colaborador durante dos años), tras
mencionarla en una conferencia sobre Amenazas Existenciales (8)
llevada a cabo en
Montenegro el pasado mes de mayo y organizado por el Centro Uehiro de Ética
Práctica de Oxford. Con independencia del enfoque que el rector Hughes hace en
su conferencia sobre el Atraco de Pascal, podemos sintetizar que esta teoría
demuestra el problema de la maximización de una utilidad esperada, donde los
resultados improbables pueden tener utilidades muy grandes, y estas utilidades
pueden crecer más rápido de lo que disminuye la probabilidad.
Es decir, traducido en términos
del tema que nos ocupa, podemos señalar que la sociabilización de las familias
de tipo GPT de manera transversal a la actividad cotidiana humana puede
conducir a:
1.-En primer lugar, a que las
personas tomen elecciones contrarias a la intuición (por el efecto heurístico
de la máquina o confianza ciega en la tecnología);
2.-Y, más adelante por el uso
normalizado por recurrente del mismo ChatGPT, a que las personas tomen
decisiones cada vez más incoherentes a medida que la utilidad de cada elección
se vuelva ilimitada (que no infinita).
Por tanto, no sólo nos abocamos a
un previsible horizonte en el que el sistema de decisiones humano bajo
determinismo de la IA sea aparentemente razonable sin serlo stricto sensu
(atentando contra la lógica racional en sí misma), sino que además, como
consecuencia directa en materia propiamente Ética, observaremos cómo el deber
moral de las conductas de las personas dejará de ser el eje vertebrador de la
ética humana para ser reemplazado por la validación moralmente correcta o
incorrecta de las consecuencias o resultados de sus conductas, resucitando así
el principio maquiavélico del fin justifica los medios. O explicado de otra
manera, y retomando al caso de mi padre anteriormente expuesto a modo de
ejemplo didáctico, cabría decir que:
1.-La respuesta de la IA a su
pregunta fue aparentemente razonable sin serlo.
2.-Dicha respuesta podría
promover que una tercera persona adoptase una decisión contraria a la razón,
tanto por causas de confianza plena en la tecnología como por desconocimiento
de la materia.
3.-En el caso de personas sin conocimientos
suficientes sobre el tema planteado a la IA, pero que pudieran aparentar socialmente
diligencia profesional sin tenerla (como es previsible que suceda con ciertas
futuras generaciones graduadas gracias mediante el uso abusivo de herramientas
GPT, lo que me gusta denominar como la nueva generación de pícaros ( 9
)
), el juicio moral social ya no recaerá en su conducta
engañosa en calidad de “pseudo profesional” sino en las consecuencias de la decisión
adoptada.
4.-A medida que la utilidad de dicha
decisión adoptada se volviese estadísticamente cada vez más grande por su uso
social, la consecuente cadena de sucesos de las futuribles decisiones adoptadas
por nuevas personas implicadas se volvería más imprevisible por ilógicas.
5.- Ergo
, dejar en manos exclusivas
de la IA la utilidad de una elección (véase la Teoría de la Utilidad Esperada (10)
) en base a sus respuestas,
exentas de la mediación del Pensamiento Crítico humano, puede resultar
desastroso para la propia humanidad.
Expuesto lo cual, resulta evidente
que no hay nada de inteligente en persistir en la actual deriva socio-tecnológica
que sustituye la capacidad del pensamiento humano en beneficio del razonamiento
algorítmico de la IA. Que los aires del progreso tecnológico no nos nublen el
buen juicio, no sea que al final por no tener no tengamos ya ni juicio propio. Y
ante la inmersión forzosa que nos imponen las grandes tecnológicas en el uso
social de los modelos GPT, optemos por los buscadores clásicos con espíritu de
resistencia, ya que la búsqueda y selección de la información forma parte,
junto al análisis de la misma y la consiguiente concusión de dicho análisis, de
la triada del proceso cognitivo de pensar. Ya que si desaprendemos a pensar,
con independencia de que estaremos a merced del Pensamiento Único de la IA,
¿qué nos quedará como humanos?. Como bien dijo el racionalista Descartes: Cogito
ergo sum
, no piensa el GPT por mí y luego soy, no nos llevemos a engaño.
Referencias
(1)
Apple integra ChatGPT en el iPhone, iPad y Mac,
y abraza la ‘personalización total’. Joaquín Torreblanca. Forbes, 11 Junio 2024 https://acortar.link/KhxGPi
(2)
¿Los ChatBots nos van a hacer más tontos?. Jesús
A. Mármol. Bitácora de un Buscador, 29 Diciembre 2022 https://acortar.link/utEoMS
(3)
Crítica a los Pilares del Conocimiento. Jesús A.
Mármol. Mundobook, 2024 https://acortar.link/EEdbLz
(4)
La deriva humana de la Confianza a la fe ciega
en la IA: causas e implicaciones. Jesús A. Mármol. Bitácora de un Buscador, 3
Mayo 2024 https://acortar.link/CE54e8
(5)
Los buscadores IA de internet: la nueva (y
cuestionable) fuente del conocimiento humano. Jesús A. Mármol. Bitácora de un
Buscador, 8 Abril 2024 https://acortar.link/jT4Fjs
(6)
Un estudio encuentra que los modelos de IA
tienen puntos de vista opuestos sobre temas controvertidos. Kyle Wiggers.
TechCrunch, 6 Junio 2024 https://acortar.link/ZiPfwO
(7)
¿Qué efectos tiene el Pensamiento Colmena de la
IA en las nuevas generaciones?. Jesús A. Mármol. Bitácora de un Buscador, 30
Mayo 2023
https://acortar.link/zIYrY6
(8)
¿Son los niños el futuro?: Longtermismo,
pronatalismo y descuento epistémico. James Hughes. Substack, 11 Junio 2024 https://acortar.link/ZAYRTj
(9)
ChatGPT o la máquina social para crear la nueva
generación de Pícaros. Jesús A. Mármol. Bitácora de un Buscador, 21 Mayo 2023 https://acortar.link/0siWjS
(10)
Teoría de la Utilidad
Esperada. Wikipedia. https://acortar.link/dVDo3k
