domingo, 31 de diciembre de 2023

JORNADA MUNDIAL DE LA PAZ 2024

Resulta curioso que Francisco haya dedicado el Mensaje para la 57 Jornada Mundial de la

Paz, 1º de enero de 2024 (aunque publicado el 8 de diciembre de 2023), al tema de “Inteligencia

Artificial y Paz”. ¿Por qué? Pues porque, al día de hoy, la humanidad está desgarrada por

innumerables conflictos bélicos, como la guerra en la Franja de Gaza o Ucrania. Pero no son los

únicos lugares: en torno a Navidad 170 cristianos -nuevos “santos inocentes”- fueron asesinados

en el centro de Nigeria, o en México continúan las matanzas perpetradas por grupos ligados al

narcotráfico. ¿Por qué centrarse entonces en la Inteligencia Artificial y la Paz?

Además, cuando uno analiza el documento, descubre que en su brevedad -apenas 8

incisos- resulta mucho más ambicioso que un simple llamado a la paz. Obviamente destaca los

riesgos para la paz que supone la IA, e invita a utilizarla para construir caminos de paz. Pero el arco

de su contenido es más amplio, y supone en realidad una buena síntesis de los documentos

magisteriales precedentes sobre este novedoso tema. Constituye una forma de incluir a la IA

dentro de un texto magisterial de más alto grado y tradición, como puede ser el Mensaje para la

celebración de la 57 Jornada Mundial de la Paz.

El documento cuida de mantener un delicado equilibrio entre las posibilidades y peligros

que supone la IA. Parte de una realidad: su irrupción en la historia y el mundo no tiene vuelta

atrás. Con esta premisa nos invita a utilizarla bien, y nos advierte de los peligros de su mal uso.

Sobre los peligros de usar la IA en el campo militar, Francisco señala lo siguiente:

“La posibilidad de conducir operaciones militares por medio de sistemas de control

remoto ha llevado a una percepción menor de la devastación que estos han causado y

de la responsabilidad en su uso, contribuyendo a un acercamiento aún más frío y

distante a la inmensa tragedia de la guerra. La búsqueda de las tecnologías

emergentes en el sector de los denominados «sistemas de armas autónomos letales»,

incluido el uso bélico de la inteligencia artificial, es un gran motivo de preocupación

ética. Los sistemas de armas autónomos no podrán ser nunca sujetos moralmente

responsables… Tampoco podemos ignorar la posibilidad de que armas sofisticadas

terminen en las manos equivocadas facilitando, por ejemplo, ataques terroristas o

acciones dirigidas a desestabilizar instituciones de gobierno legítimas”.

Entre los aspectos que vale la pena remarcar en el nuevo documento de Francisco se

encuentra su insistencia en que los avances científico-tecnológicos no son “neutrales”, lo que

equivale a decir que poseen una intencionalidad, están al servicio de determinados intereses

culturales, económicos, políticos o ideológicos. Por ello mismo gozan de una dimensión ética.

La perspectiva ética nos dice que, a mayor poder, mayor responsabilidad. Por eso “las

cuestiones éticas deberían ser tenidas en cuenta desde el inicio de la investigación, así como en las

fases de experimentación, planificación, distribución y comercialización”. La seguridad, la paz, el

bien común, el respeto de la dignidad humana, requieren que la ética acompañe en todo su

desarrollo la elaboración de los sistemas de la IA.


Por otra parte, está el problema de determinar, ¿cuál ética? De hecho, sabemos que existen

abundantes modelos morales. Indudablemente Francisco apuesta por una propuesta

antropológica de corte humanista que de sustento a la ética necesaria para gestionar la IA. Por eso

mismo, “los desarrollos tecnológicos que no llevan a una mejora de la calidad de vida de toda la

humanidad, sino que, por el contrario, agravan las desigualdades y los conflictos, no podrán ser

considerados un verdadero progreso”. Progreso y humanismo van de la mano, y son resultado de

no perder de vista el fin de todo desarrollo tecnológico: la persona humana.

Algunos ejemplos de cómo la IA puede jugar en contra de la dignidad humana: “En el

futuro, la fiabilidad de quien pide un préstamo, la idoneidad de un individuo para un trabajo, la

posibilidad de reincidencia de un condenado o el derecho a recibir asilo político o asistencia social

podrían ser determinados por sistemas de inteligencia artificial”. También son “consecuencias

negativas unidas a su uso impropio, la discriminación, la interferencia en los procesos electorales,

la implantación de una sociedad que vigila y controla a las personas, la exclusión digital y la

intensificación de un individualismo cada vez más desvinculado de la colectividad”.

Francisco da en la diana cuando rechaza identificar la singularidad de la persona con un

cúmulo de datos, y al señalar cómo el algoritmo puede hacer que modifiquemos nuestro modo de

promover los derechos humanos.

El Papa nos invita a “reflexionar sobre el «sentido del límite» … El ser humano, mortal por

definición, pensando en sobrepasar todo límite gracias a la técnica, corre el riesgo, en la obsesión

de querer controlarlo todo, de perder el control de sí mismo, y en la búsqueda de una libertad

absoluta, de caer en la espiral de una dictadura tecnológica”.

Para enfrentar estos desafíos, el Papa ofrece dos sencillas sugerencias, no fáciles de

implementar ciertamente: Ofrecer una educación que agudice el sentido crítico hacia todo lo que

provenga del mundo digital y, particularmente, de la IA, por un lado y, en segundo lugar, elaborar

un tratado internacional vinculante para controlarla y encauzarla, y así produzca frutos

respetuosos de la dignidad y los derechos humanos.

Cabe señalar que Francisco está bien asesorado. Se nota en la redacción del documento una

puesta al día respecto de los textos magisteriales anteriores, cuando habla de “inteligencias

artificiales” -así, en plural- y “machine learning”, mostrando las diferencias que tienen con el

auténtico conocimiento humano. El panorama es, por ahora, todo menos claro. Es algo que está

naciendo en nuestras manos y plantea incógnitas que van más allá de lo estrictamente técnico,

para internarse en el ámbito antropológico, por lo que requieren un acercamiento interdisciplinar:

“Desarrollos como el machine learning o como el aprendizaje profundo (deep learning) plantean

cuestiones que trascienden los ámbitos de la tecnología y de la ingeniería y tienen que ver con una

comprensión estrictamente conectada con el significado de la vida humana, los procesos básicos

del conocimiento y la capacidad de la mente de alcanzar la verdad”.

Podemos concluir la reflexión sobre este texto, planteando con claridad los retos a los que

nos enfrenta esa apasionante realidad que es la IA:


“La inteligencia artificial, debe ser entendida como una galaxia de realidades distintas

y no podemos presumir a priori que su desarrollo aporte una contribución benéfica al

futuro de la humanidad y a la paz entre los pueblos. Tal resultado positivo sólo será

posible si somos capaces de actuar de forma responsable y de respetar los valores

humanos fundamentales como «la inclusión, la transparencia, la seguridad, la

equidad, la privacidad y la responsabilidad»”. 


Dr. Salvador Fabre

masamf@gmail.com

No hay comentarios:

Publicar un comentario