Ingenieros IA y procesos industriales, dos variables con un sólo destino: la Roboética
La razón, como ya avancé en la
pasada reflexión sobre las conclusiones del recién
Informe de Índice de la IA publicado por la Universidad de Stanford
(2)
, es clara: la revaloración del interés partidista
del sector tecnológico como bien superior a defender versus
el bien
colectivo. Tanto es así que, de hecho, la sociedad -dígase todos y cada uno de
nosotros- nos hemos convertido en campo de prueba y estudio de una tecnología
que, sin ser responsable ni funcionar bien, sólo busca el beneficio económico.
O, dicho de otra manera a modo pedagógico, la presente situación podría ser
pareja a imaginar que el sector automovilístico sacara al mercado vehículos de
acceso discriminado para sus usuarios según sesgos sociales, y cuya conducción
impredecible pudiera generar situaciones en la que los coches acelerasen o
girasen de sentido de manera autónoma y sin previo aviso, y por tanto sin
control del conductor; y aun así la sociedad -entiéndase tanto automovilistas
como peatones convertidos de facto
en conejillos de indias- normalizásemos
dicha situación para experimentación y rédito continuo de la industria
sectorial.
La pregunta pertinente, por
tanto, no puede ser otra que dé respuesta al por qué de esta casuística
sociológica. Las razones, a todas luces, son varias dentro de un mismo árbol
causal:
1.-Porque la sociedad aún no
entiende qué es y qué puede hacer la IA.
2.-No entiende qué es y qué puede
hacer, porque la sociedad aún no es consciente de la omnipresencia de la IA en
sus vidas diarias.
3.-La sociedad no es consciente
de la omnipresencia de la IA, porque ésta se ha infiltrado sigilosa y
ocultamente en todos los resquicios del tejido social de manera tan vertiginosa
como exponencialmente.
4.-La IA se ha infiltrado
silenciosa y ocultamente en la sociedad, porque se ha camuflado bajo la era del
imperio digital, cuyo control está restringido al celoso mundo de los
ingenieros tecnológicos.
Y, 5.-La IA está celosamente
restringida al sector tecnológico, porque a éste no le interesa que la sociedad
pueda hacer juicios de valor respecto al alcance moral de sus avances y, por
extensión, potencialmente entorpecer sus expectativas económicas por la
explotación de sus productos y servicios.
Una conclusión que en sociedades
occidentales de corte democrático, dicha evidente falta de transparencia en las
políticas y procedimientos éticos del desarrollo de la IA por parte del
oligopolio tecnológico, nos deberían poner en estado de alerta. Ya que la
influencia de esta nueva fuerza motriz social advenediza es transversal al
conjunto de actividades humanas, hasta el punto de ostentar la capacidad
efectiva de moldear la realidad conocida a imagen de sus propios designios. Un
poder asumido por parte del sector algocrático, ante la impotencia de los
Estados políticos, que le permite incluso eludir la máxima clásica -parafraseando
al César- de que en la vida no sólo hay que ser honestos, sino también
parecerlo. Tal es el caso, exempli gratia
, a nivel particular de la
compañía Google que realiza a consciencia acciones contrarias a su propio
código roboético, promoviendo que sus equipos de finanzas y publicidad empeoren
expresamente las búsquedas de su navegador para que la empresa gane más dinero (3)
; sin dejar de mencionar a
nivel general, por otra parte, el ritmo incesante de salida al mercado de
nuevas aplicaciones de las grandes tecnológicas cuyo funcionamiento contradice de
facto
sus propios códigos éticos IA corporativos, y cuya mala praxis
se ha convertido en pauta sectorial normalizada.
Dibujado el escenario presente,
debemos hacernos tres preguntas clave: ¿por qué la industria tecnológica en IA
es reticente a integrar la Roboética en sus procesos fabriles de productos y
servicios?, ¿por qué es importante normalizar la Roboética como marco natural
del desarrollo sectorial?, y ¿qué consecuencias sociales tiene la actual falta
de implementación de la Roboética?. Tres cuestiones que, si bien son extensas
de responder, las desarrollaremos a continuación de manera lo más concisa
posible:
1.-Reticencia del sector
tecnológica IA hacia la Roboética
Más allá de intereses económicos
y de corporativismos profesionales -no exentos de tecnoegolatrías personales-, si
nos centramos en la comunidad de ingenieros de software y de científicos
informáticos norteamericanos (por ser EEUU potencia mundial, junto con China,
en desarrollo de la IA), y siendo este colectivo quienes como líderes
sectoriales deben asegurar una IA ética y segura en el orbe occidental, cabe
señalar que diversos estudios (4,5)
apuntan a que los ingenieros contemporáneos ni están preparados para
lidiar con las implicaciones sociales de sus trabajos, ni parecen tener
motivación alguna en afrontar los dilemas morales propios de una tecnología directamente
disruptiva en todos los ámbitos de la actividad humana. Y, aún más, cuando se
les presentan casos de estudio particulares, dichos profesionales tecnológicos
a menudo tienen dificultades para reconocer los dilemas éticos que se les
presenta. La razón de esta situación la encontramos tanto en la práctica
inexistencia de asignaturas roboéticas en los programas formativos de
ingeniería, como en la falta de cultura general sobre Roboética, hasta el punto
que el colectivo de ingenieros concibe actualmente la ética y los impactos
sociales de la tecnología como algo ajeno al trabajo de ingeniería “real”, bajo
la falsa premisa de que su responsabilidad se limita a crear la tecnología y
que los problemas asociados a su uso no son de su incumbencia.
2.-La importancia de la
Roboética como marco de desarrollo de la tecnología IA
Ciertamente, la responsabilidad
no sólo recae sobre los ingenieros, sino que la responsabilidad debe
compartirse con empresas y legisladores. Pero no es menos cierto que tanto la
legislación siempre va detrás de las necesidades sociales, como que las
empresas tecnológicas están dirigidas en su gran mayoría por ingenieros, y que
éstos a su vez son los responsables de los vertiginosos avances tecnológicos
que disruptivamente afectan -a cada nuevo día que pasa- al conjunto de la
sociedad en una era de la humanidad inmersamente digital. Fenómeno sociológico
que ha convertido a los ingenieros, paradójicamente aún sin ellos buscarlo ni
quererlo, en los nuevos filósofos de la Ética, pues sus innovaciones
tecnológicas -por estar omnipresentes en la vida del hombre- afectan
directamente a la redefinición moral del comportamiento humano, con especial
énfasis en las nuevas generaciones.
Por tanto, si entendemos que la
IA está acaparando rápidamente todos los aspectos de la vida diaria, que
asimismo la IA evoluciona exponencialmente superando los esfuerzos regulatorios
y políticos que buscan guiar su uso ético (dígase Ética Normativa), y que los
ingenieros -como autores intelectuales de la IA- están actuando de facto
de moralistas al tomar decisiones de aplicación práctica que remodelan el
propio concepto de la sociedad conocida, resulta obvio llegar a la inferencia
por razonamiento deductivo de que el sector IA requiere de un instrumento de
trabajo de responsabilidad social corporativa. Un instrumento que afronte los
problemas de una tecnología en continuo cambio y transformación en materia de
Ética Aplicada, entiendo ésta como la disciplina que
confronta cuestiones morales concretas y
controvertidas que se escapan a la ética regulada o normativa (como pueda ser el
caso del famoso Dilema del Tranvía). Y esta herramienta estratégica de gestión de
responsabilidad social tan necesaria como imprescindible para el sector
tecnológico IA no es otra que la Roboética.
3.-Implicaciones de una
sociedad exenta de Roboética
En caso contrario, en un contexto
social que evoluciona aceleradamente bajo el liderazgo tecnológico, las
implicaciones de una sociedad exenta de Roboética son múltiples. Y, sin
intención de abarcar dicha compleja heterogeneidad -cuyos análisis poliédricos,
el lector, si se precia, puede consultarlos en anteriores artículos o libros de
autoría propia-, en esta ocasión en particular deseo hacer especial hincapié en
una implicación singular: la heurística de la máquina.
Esta derivada de la heurística,
para situarnos, trata básicamente el fenómeno social de la confianza ciega de
las personas en la tecnología IA por considerarlas precisas, objetivas, e
infalibles, principalmente. Es decir, el ser humano asumimos inconscientemente y
por tendencia natural una supra competencia a la tecnología aún cuando esta,
realmente, no la garantiza. Lo que genera como resultado una relajación del
criterio de juicio de la persona, como se pone en evidencia, entre otros
estudios, en el caso de la reducción de vigilancia de los pilotos de aviones
cuando éstos vuelan en modo automático (6)
, o cuando como usuarios confiamos plenamente la cesión de
nuestros datos privados a una máquina en vez de a un agente humano (7).
Por tanto, a la luz del efecto de
la heurística de la máquina, queda claro que sin un elemento de evaluación
ético social de la tecnología IA, como es la Roboética, el ser humano -bajo la
lógica gaussiana- tenderá a dejar de tener control sobre el propio Principio de
Realidad por ausencia de un pensamiento crítico saludable, pudiendo ser víctima
fácil de estados tanto de manipulación cognitiva, como de desinformación o
falsedad sobre el conocimiento, e incluso de situaciones deliberadas de fraude
o de injusticias sociales, entre otros. Implicaciones en su conjunto que, aun
aplicando la suma de historias feynmaniana, previsiblemente desembocarán por
probabilidad estadística en un solo y único punto de convergencia en un
horizonte futurible: la distopía social.
Expuesto lo cual, a las empresas
tecnológicas y a los ingenieros en IA cabe exhortarles que si bien a día de hoy
son indiscutiblemente la fuerza motriz de la evolución de nuestra sociedad, no
es menos cierto que justamente por ello atesoran una gran responsabilidad
social, pues con sus acciones en la gestión y desarrollo de un gran poder como
es la IA están moldeando y redefiniendo la sociedad del mañana. Una
responsabilidad que les compete moralmente, por defecto de un marco legal
impositivo global y eficaz, a ser conscientes no sólo de los dilemas éticos que
implica socialmente su trabajo, sino asimismo a ser conscientes de la consecuente
obligación de afrontarlos en la medida de lo posible. Una responsabilidad que
inicialmente pasa, en el caso de las grandes compañías del sector, a
reincorporar a sus departamentos de Roboética despedidos en los últimos meses;
en el caso tanto de las pequeñas y medianas empresas como de las startups
,
a contratar a un responsable de Roboética desde el primer día (8)
; y en el caso de facultades
de ingeniería, a integrar la Roboética como materia de estudio en sus programas
formativos. Pues al final, todos sin excepción deberemos enfrentarnos a una
pregunta de la que no podemos sustraernos: ¿Queremos una sociedad futura sujeta
a Roboética, y por tanto inspirada en la Filosofía Humanista que vela por los
derechos sociales y civiles; o contrariamente nos decantamos por construir una
sociedad del mañana exenta de Roboética y por tanto distópica?. La decisión es
nuestra, sabedores que tanto la acción como la no-acción son dos
posicionamientos con consecuencias futuras divergentes.
Realizado este llamado reflexivo,
y sobre la base de que el sector tecnológico IA se desarrolla en una economía
de mercado keynesiano bajo modelos de organización social democráticos -al menos
en el orbe occidental, que es el que nos interesa-, no creo equivocarme al
afirmar que la Roboética no sólo se va a consolidar a medio plazo como el nuevo
marco referencial del sector (superando por fuerza mayor las reticencias y
resistencias del mismo), sino que aún más acabará convirtiéndose en un
instrumento clave de gestión y de competitividad de las empresas de ingeniería
IA. Pues al final, comunidad profesional de ingenieros y procesos industriales
en IA son dos variables con un sólo e inevitable destino: la Roboética.
Referencia
(1)
Diez problemas difíciles de la inteligencia
artificial que debemos solucionar. Gavin Leech , Simson Garfinkel , Misha
Yagudin , Alexander Briand , Aleksandr Zhuravlev. Arxiv, Cornell University, 6
Febrero 2024 https://arxiv.org/abs/2402.04464
(2)
IA: sólo importa reducir costos y aumentar
beneficios, aunque pierda la sociedad. Jesús A. Mármol. Bitácora de un
Buscador, 16 Abril 2024 https://acortar.link/8BBsP0
(3)
El hombre que acabó con la búsqueda de Google.
Ed. Zitron, 24 Abril 2024 https://acortar.link/O9n56f
(4)
Resistir y ayudar al compromiso con el bienestar
público en la educación en ingeniería. Sociedad Estadounidense para la
Educación en Ingeniería, 13 Mayo 2020 https://acortar.link/kZSL4T
(5)
Aprender a priorizar el bien público: ¿La
capacitación en clases, lugares de trabajo y sociedades profesionales moldea la
comprensión de los ingenieros sobre sus responsabilidades en materia de
bienestar público?. Sociedad Estadounidense para la Educación en Ingeniería, 20
Marzo 2024 https://acortar.link/v2DVhO
(6)
El efecto de la automatización sobre los
factores humanos en la aviación. Jamie Paul Brown. JIAS, 2016 https://acortar.link/L08EFl
(7)
Heurística de máquina: cuando confiamos nuestra
información personal a las computadoras más que a los humanos. S. Shyam Sundar
y Jinyoung Kim. ACM, 2 Mayo 2019 https://acortar.link/7bGXYC
(8)
Por qué toda startup de IA debería contratar a
un jefe de ética de IA desde el primer día. Steve Lourdessamy. Medium, 20 Abril
2024 https://acortar.link/Zqr8QG