Digamos No a la inmersión de las IA GPT que sustituyen nuestro pensamiento por el suyo

noreply • 19 de junio de 2024

No obstante, muletilla pedagógica aparte, lo cierto es que si existe alguna mano invisible que mece la cuna de la civilización contemporánea ésta no es otra que la propia de las grandes empresas tecnológicas, ya que controlan el conjunto de dispositivos digitales que el resto de mortales utilizamos en nuestra vida cotidiana como extensiones biomecánicas de nosotros mismos, parejo a los titiriteros que controlan los hilos de sus marionetas. Compañías elevadas a la categoría de Señores del Nuevo Mundo cuya tendencia actual, que no por ser previsible resulta menos alarmante, se esfuerzan por implementar los sistemas IA de la familia de tipo GPT en todos los aparatos comerciales domésticos, ordenadores y teléfonos móviles (1) incluidos. Y califico dicha tendencia de alarmante porque este hito comercial, aparentemente inocente, representa de facto el principio del fin de la capacidad cognitiva consciente del raciocinio humano, que en su concepto más amplio cabe entenderse como la manifestación del acto de pensar. Sobre este punto (propio de la gnoseología) no voy a extenderme por haberlo desarrollado anteriormente en diversas ocasiones (2,3) , aunque sí remarcaré que éstos modelos de IA que irrumpen disruptivamente en la vida diaria de las personas vienen para substituir nuestra propia capacidad de pensamiento, ya que su función principal (de filosofía diáfanamente anti socrática) es la de pensar por nosotros al amparo idiosincrásico de nuestra confianza ciega en su competencia tecnológica aun cuando ésta realmente no la garantiza (fenómeno de la heurística de la máquina) (4) , y suma y sigue a expensas de los sesgos y alucinaciones inherentes que denotan sus respuestas (5,6). Y ya sabemos que sin capacidad de pensamiento propio no existe posibilidad alguna de Pensamiento Crítico, ya que éste es una derivación cualitativa de aquel. Y, sin Pensamiento Crítico, sólo puede existir un único tipo de pensamiento humano, que no es otro que el Pensamiento Único (7) que en este caso provee bien paquetizado para su cómoda ingesta la propia IA, para mayor gloria como herramienta estratégica de control social del nuevo orden mundial algocrático.

Es urgente revisar el modelo educativo

Si a este fenómeno sociológico le sumamos el bajo nivel del sistema educativo, caracterizado -como tristemente me apuntaban hace unas semanas y en círculos diversos profesores de secundaria y de universidad de diferentes puntos de España- por alumnos carentes tanto de conceptos básicos sobre cualquier temática (dígase cultura general) como por la capacidad cognitiva mínimamente requerida para desarrollar dichas temáticas aun sin conceptos adquiridos, el horizonte que se avecina viene marcado por una futura generación de adultos digitales profundamente dúctiles (candidatos para un sistema de rebaño) por exentos de criterio intelectual propio. Un fenómeno que, a la par, viene agravado por un modelo pedagógico inmersamente digital, en el que incomprensiblemente los profesores están permitiendo a los alumnos el desarrollo de los trabajos escolares mediante ChatGPT (teóricamente para potenciar el Pensamiento Crítico de los alumnos sobre las herramientas IA -lo cual es un reductio ad absurdum , ya que no sólo la conjugación de ChatGPT y Pensamiento Crítico es un oxímoron en sí mismo, sino que además ignora la primera ley natural del ser humano que no es otra que la del mínimo esfuerzo-), a su vez que los docentes están corrigiendo dichos trabajos con el mismo ChatGPT. Todo un despropósito, por no calificarlo de barbaridad exenta de racionalidad alguna, donde en materia educativa el ChatGPT se lo hace y se lo come él sólo a expensas de unos estudiantes en calidad de actores secundarios que, atentando contra la propia etimología latina del vocablo, ni se aplican ni aprenden nada.

Del peligro de esta deriva generalizada en el desmantelamiento de la Lógica más básica (cuyos principios establecidos por Aristóteles han fundamentado la ciencia a lo largo de los últimos siglos) sobre la capacidad cognitiva del pensamiento humano, una pequeña anécdota a modo de ejemplo: El pasado fin de semana, en ocasión de un encuentro familiar periódico, mi padre -ingeniero ya jubilado- me comentaba que había realizado una consulta técnica a la IA Copilot de Microsoft que tiene instalado de serie en su ordenador, y al extrañarse de la respuesta recibida revisó la formulación que la IA había utilizado para elaborar los cálculos, percatándose que la fórmula empleada era errónea. Ante lo cual me manifestó que “ una persona sin conocimientos previos en la materia, y sin capacidad de revisión crítica, hubiese dado como buena dicha respuesta equivocada con las consecuentes derivaciones negativas que hubiese podido acarrear su aplicación” . Se puede decir más alto, pero no más claro.

Atraco de Pascal

Llegados a este punto, debo apuntar que el proceso de sociabilización de la IA tipo GPT en el que actualmente estamos inmersos me recuerda a la tesis del Atraco de Pascal. Teoría derivada de la Apuesta de Pascal, del filósofo y matemático homónimo francés del siglo XVII, que recientemente refresqué gracias a James Hughes, rector asociado de la Universidad de Massachusetts de Boston y director del Instituto de Ética y Tecnologías Emergentes (del que he sido colaborador durante dos años), tras mencionarla en una conferencia sobre Amenazas Existenciales (8) llevada a cabo en Montenegro el pasado mes de mayo y organizado por el Centro Uehiro de Ética Práctica de Oxford. Con independencia del enfoque que el rector Hughes hace en su conferencia sobre el Atraco de Pascal, podemos sintetizar que esta teoría demuestra el problema de la maximización de una utilidad esperada, donde los resultados improbables pueden tener utilidades muy grandes, y estas utilidades pueden crecer más rápido de lo que disminuye la probabilidad.

Es decir, traducido en términos del tema que nos ocupa, podemos señalar que la sociabilización de las familias de tipo GPT de manera transversal a la actividad cotidiana humana puede conducir a:

1.-En primer lugar, a que las personas tomen elecciones contrarias a la intuición (por el efecto heurístico de la máquina o confianza ciega en la tecnología);

2.-Y, más adelante por el uso normalizado por recurrente del mismo ChatGPT, a que las personas tomen decisiones cada vez más incoherentes a medida que la utilidad de cada elección se vuelva ilimitada (que no infinita).

Por tanto, no sólo nos abocamos a un previsible horizonte en el que el sistema de decisiones humano bajo determinismo de la IA sea aparentemente razonable sin serlo stricto sensu (atentando contra la lógica racional en sí misma), sino que además, como consecuencia directa en materia propiamente Ética, observaremos cómo el deber moral de las conductas de las personas dejará de ser el eje vertebrador de la ética humana para ser reemplazado por la validación moralmente correcta o incorrecta de las consecuencias o resultados de sus conductas, resucitando así el principio maquiavélico del fin justifica los medios. O explicado de otra manera, y retomando al caso de mi padre anteriormente expuesto a modo de ejemplo didáctico, cabría decir que:

1.-La respuesta de la IA a su pregunta fue aparentemente razonable sin serlo.

2.-Dicha respuesta podría promover que una tercera persona adoptase una decisión contraria a la razón, tanto por causas de confianza plena en la tecnología como por desconocimiento de la materia.

3.-En el caso de personas sin conocimientos suficientes sobre el tema planteado a la IA, pero que pudieran aparentar socialmente diligencia profesional sin tenerla (como es previsible que suceda con ciertas futuras generaciones graduadas gracias mediante el uso abusivo de herramientas GPT, lo que me gusta denominar como la nueva generación de pícaros ( 9 ) ), el juicio moral social ya no recaerá en su conducta engañosa en calidad de “pseudo profesional” sino en las consecuencias de la decisión adoptada.

4.-A medida que la utilidad de dicha decisión adoptada se volviese estadísticamente cada vez más grande por su uso social, la consecuente cadena de sucesos de las futuribles decisiones adoptadas por nuevas personas implicadas se volvería más imprevisible por ilógicas.

5.- Ergo , dejar en manos exclusivas de la IA la utilidad de una elección (véase la Teoría de la Utilidad Esperada (10) ) en base a sus respuestas, exentas de la mediación del Pensamiento Crítico humano, puede resultar desastroso para la propia humanidad.

Expuesto lo cual, resulta evidente que no hay nada de inteligente en persistir en la actual deriva socio-tecnológica que sustituye la capacidad del pensamiento humano en beneficio del razonamiento algorítmico de la IA. Que los aires del progreso tecnológico no nos nublen el buen juicio, no sea que al final por no tener no tengamos ya ni juicio propio. Y ante la inmersión forzosa que nos imponen las grandes tecnológicas en el uso social de los modelos GPT, optemos por los buscadores clásicos con espíritu de resistencia, ya que la búsqueda y selección de la información forma parte, junto al análisis de la misma y la consiguiente concusión de dicho análisis, de la triada del proceso cognitivo de pensar. Ya que si desaprendemos a pensar, con independencia de que estaremos a merced del Pensamiento Único de la IA, ¿qué nos quedará como humanos?. Como bien dijo el racionalista Descartes: Cogito ergo sum , no piensa el GPT por mí y luego soy, no nos llevemos a engaño.

 

Referencias

(1)     Apple integra ChatGPT en el iPhone, iPad y Mac, y abraza la ‘personalización total’. Joaquín Torreblanca. Forbes, 11 Junio 2024 https://acortar.link/KhxGPi

(2)     ¿Los ChatBots nos van a hacer más tontos?. Jesús A. Mármol. Bitácora de un Buscador, 29 Diciembre 2022 https://acortar.link/utEoMS

(3)     Crítica a los Pilares del Conocimiento. Jesús A. Mármol. Mundobook, 2024 https://acortar.link/EEdbLz

(4)     La deriva humana de la Confianza a la fe ciega en la IA: causas e implicaciones. Jesús A. Mármol. Bitácora de un Buscador, 3 Mayo 2024 https://acortar.link/CE54e8

(5)     Los buscadores IA de internet: la nueva (y cuestionable) fuente del conocimiento humano. Jesús A. Mármol. Bitácora de un Buscador, 8 Abril 2024 https://acortar.link/jT4Fjs

(6)     Un estudio encuentra que los modelos de IA tienen puntos de vista opuestos sobre temas controvertidos. Kyle Wiggers. TechCrunch, 6 Junio 2024 https://acortar.link/ZiPfwO

(7)     ¿Qué efectos tiene el Pensamiento Colmena de la IA en las nuevas generaciones?. Jesús A. Mármol. Bitácora de un Buscador, 30 Mayo 2023   https://acortar.link/zIYrY6

(8)     ¿Son los niños el futuro?: Longtermismo, pronatalismo y descuento epistémico. James Hughes. Substack, 11 Junio 2024 https://acortar.link/ZAYRTj

(9)     ChatGPT o la máquina social para crear la nueva generación de Pícaros. Jesús A. Mármol. Bitácora de un Buscador, 21 Mayo 2023 https://acortar.link/0siWjS

(10) Teoría de la Utilidad Esperada. Wikipedia. https://acortar.link/dVDo3k

 

Por noreply 11 de agosto de 2024
Por noreply 11 de junio de 2024
No obstante, más allá del estado de anublamiento mental en el que parece vivir la mayoría de la sociedad, el principio de Realidad caracterizado por la acelerada sociabilización de una progresiva IA omnipresente y omnipotente se impone. Una realidad (cuyo empirismo no es sueño, como versaría Calderón de la Barca) donde la economía productiva, y con ella el mercado laboral, ni están exentos ni son inmunes. Y, todo y así, a pesar de esta patente realidad objetiva, la ciudadanía en su conjunto parece vivir bajo el síndrome de la rana hervida, ajena a la irrupción disruptiva de la IA que está transformado radicalmente el paradigma de la sociedad conocida.
Más entradas