Los buscadores IA de internet: la nueva (y cuestionable) fuente del conocimiento humano

noreply • 8 de abril de 2024

A partir de esta anécdota doméstica presentada a modo introductorio, si bien ya he tratado extensamente el conocimiento humano en la actual era IA (como posibilidad, fenomenología, medio, y naturaleza) en algunos de mis libros de roboética ( Y la IA se hizo Dios al tercer día (1) , y Paradoja IA: controlar lo Indómito (2) ), así como en mi libro de gnoseología ( Crítica a los Pilares del Conocimiento (3) ), quisiera en esta pequeña reflexión hacer los siguientes apuntes en forma de proceso de inferencia:

1.-Los modelos LLM se fundamentan en las nuevas Bibliotecas del conocimiento humano: los Centros de Datos

Los modelos de lenguaje de gran tamaño (LLM), que son la base de los nuevos buscadores IA como Gemini de Google (que es uno de los ChatBots de IA existentes, tales como el ChatGPT de Open AI, el Copilot de Microsoft, el Alexa de Amazon, o el Claude de Anthropic, etc.), requieren de miles de millones de páginas web sobre la que sustentan las respuestas diarias a consultas de búsquedas de todo el mundo. Una mega información que se almacena en los llamados Centros de Datos sólo aptos, por su altísimo coste económico y energético (4) , para las grandes tecnológicas como Google, Microsoft o Amazon en el mundo occidental (otro cantar es el mundo oriental, en el que China acoge el mayor Centro de Datos del mundo). De lo que se deduce que, siendo el conocimiento humano experimentado y percibido digitalmente a partir de finales del siglo pasado, es una obviedad considerar a estos Centros de Datos como las nuevas bibliotecas de la humanidad.

Y, como apunte en el lateral de la página, es obligado señalar que este evidente monopolio de las grandes tecnológicas sobre los Centros de Datos, no sólo representa una estratégica ventaja competitiva empresarial en el actual mercado digital, sino que convierte a los Centros de Datos de titularidad privada en ecosistemas imprescindibles para el entrenamiento de modelos LLM por parte de todos aquellos investigadores del mundo, públicos o privados, que trabajan en el desarrollo de este sector de la IA. Es decir, que los parámetros de los valores de los   estudios de estos dependen de los filtros selectivos de datos de aquellos, lo cual requiere reflexión crítica aparte.

2.-Los modelos LLM trabajan sobre fuentes de conocimiento no validadas

Como ya hemos expuesto, los nuevos buscadores IA, como Gemini de Google, se basan en modelos LLM que aprenden continuamente de su campo de estudio que son las nuevas Bibliotecas digitales (dígase Centros de Datos), las cuales adquieren la información del amplio y vasto universo de internet. Por lo que la pregunta pertinente no es otra que aquella que nos dé respuesta a cómo se valida la fiabilidad de dicha información que es fuente actual del conocimiento, versus a la era predigital cuya fuente del conocimiento eran las universidades y las revistas académicas y científicas.

Con independencia de que los modelos LLM manifiestan en ocasiones estados de “alucinación” -al afirmar respuestas seguras que no parecen estar justificadas por sus datos de entrenamiento, lo cual es un dolor de cabeza aún sin solución para los ingenieros en IA-, éstos modelos lingüísticos de IA validan la respuesta a una consulta realizada según el apoyo cuantitativo que dicha materia posee en internet, aunque dicha corriente de pensamiento generalizada se circunscriba al ámbito propio de la pseudociencia o de la pura charlatanería. Una metodología frontalmente opuesta a los procesos de validación de los conocimientos académicos y científicos tradicionales, basados en sistemas de revisión por pares (revisión independiente, subjetiva y crítica de un estudio por expertos iguales), que garantizan que un nuevo conocimiento fruto de una investigación previa se ha realizado dentro de las exigencias de los cánones formales, y cuyas publicaciones -que exigen la disposición de las bases de datos de fuentes-, son evaluadas posteriormente para su posible revisión y rectificación de errores, sesgos o fraudes, si es el caso. Es decir, como ya adelantaba Platón en su Mito de la Caverna, existen dos tipos de conocimiento: la opinión y la ciencia. Y es por todos sabidos que en materia de información que corre por internet pesa más la opinión que el análisis crítico del conocimiento racional (propio del método trascendental de Kant), o que la justificación del conocimiento (propio del método racionalista de Descartes).

3.-Los modelos LLM promueven un estado de progresiva ignorancia popular

Manifestado lo cual, si entendemos que los modelos LLM:

1.-Devienen un sistema antisocrático, ya que no promueven el cuestionamiento sobre temática alguna al ofrecer sistemáticamente respuestas cocinadas a cualquier consulta para su inmediata ingesta (dinámica que atenta directamente contra la facultad de pensamiento del ser humano, al no requerir por parte del usuario el proceso lógico-reflexivo de buscar, analizar y extraer ninguna conclusión (5,6) , cuya tendencia anula asimismo de facto la capacidad del pensamiento crítico);

2.-Y que las fuentes del conocimiento de dicho modelo LLM se fundamentan mayoritariamente en las opiniones imperantes en internet sin validación de veracidad exigida, elevando el conocimiento a categoría de naturaleza más dogmática que racional;

3.-Cabe entender, en conclusión, que: A mayor ignorancia de las nuevas generaciones digitales (por inmersión en los buscadores de IA como medio de aprehensión del conocimiento), menor fiabilidad de los modelos LLM como fuentes del conocimiento humano, ya que estos se retroalimentan de aquellos. O, dicho a la inversa, puesto que nos encontramos frente a un patrón de pez que se muerde la cola: El grado de rigurosidad de las fuentes del conocimiento de los buscadores IA es directamente proporcional al nivel de ilustración de los consumidores de dichos buscadores.  

Sí, como podemos observar, la humanidad se halla ante un punto de inflexión en lo que a la calidad de las fuentes del conocimiento humano se refiere. Circunstancia que no es baladí, ya que si lo pensamos bien representa un problema nada menor para unas presentes y futuras generaciones digitales faltas tanto de cultura general como de capacidad de pensamiento crítico, pues éstas -seamos sinceros- no brillan precisamente por su predisposición en revisar la gran cantidad de información cocinada que se les facilita mediante los buscadores IA o ChatBots, ni por su competencia en realizar un análisis crítico de la misma (percíbase aquí un llamado a la revisión del actual sistema educativo). Contexto que, previsiblemente bajo lógica gaussiana, acabará por abocarnos a un horizonte caracterizado por la sociabilización de un pensamiento colmena agravantemente ignorante (7) y, en consecuencia extrapolable, hacia un mayor control de masas (8) por parte del Estado-Mercado del oligopolio tecnológico que opera impunemente por encima de los Estados políticos naturales; temas éstos en los que no entraré por haberlos desarrollado en anteriores reflexiones, pero que deseo dejar expresamente a modo de balizas para quien interese.

Sea como fuere, lo cierto es que los buscadores IA de internet son de todo menos inocuos para la posibilidad y veracidad del conocimiento humano, seamos conscientes. La democratización de internet, sin cultura general (9) ni capacidad crítica de sus usuarios, acabará por devaluar el propio conocimiento para beneficio de aquellos que controlan la gestión de dicho conocimiento (flujo y contextualización de datos). Mientras tanto, a la generación predigital sólo nos cabe prepararnos para afrontar estados de pensamiento colectivos que afrenten contra los estándares de nivel cultural más básicos, para vergüenza de propios e indiferencia de las futuras generaciones. Como dijo el César: Alea iacta est !.      

 

Referencias

(1)     Y la IA se hizo Dios al tercer día. Jesús A. Mármol. Mundobook, 2023 https://acortar.link/U2D88n

(2)     Paradoja IA: controlar lo Indómito. Jesús A. Mármol. Mundobook, 2024 https://acortar.link/zTHHPL

(3)     Crítica a los Pilares del Conocimiento. Jesús A. Mármol. Mundobook, 2024 https://acortar.link/EEdbLz

(4)     La IA es 80% agua, y en su insaciable sed compite por el consumo humano del agua. Jesús A. Mármol. Bitácora de un Buscador, 27 Julio 2023 https://acortar.link/rm61lm

(5)     ¿Los ChatBots nos van a hacer más tontos?. Jesús A. Mármol. Bitácora de un Buscador, 29 Diciembre 2022 https://acortar.link/utEoMS

(6)     ChatGPT o la máquina social para crear la nueva generación de Pícaros. Jesús A. Mármol. Bitácora de un Buscador, 21 Mayo 2023 https://acortar.link/0siWjS

(7)     ¿Qué efectos tiene el Pensamiento Colmena de la IA en las nuevas generaciones?. Jesús A. Mármol. Bitácora de un Buscador, 30 Mayo 2023 https://acortar.link/zIYrY6

(8)     Las tres tácticas de la IA para crear la nueva Falsa Realidad (y someternos en el proceso). Jesús A. Mármol. Bitácora de un Buscador, 14 Abril 2023 https://acortar.link/6Ff9EJ

(9)     Recortar la Historia de España, o cómo hacer que una sociedad pierda su identidad. Jesús A. Mármol. Bitácora de un Buscador, 23 Diciembre 2021 https://acortar.link/wrElx5