Resulta curioso que Francisco haya dedicado el Mensaje para la 57 Jornada Mundial de la
Paz, 1º de enero de 2024 (aunque publicado el 8 de diciembre de 2023), al tema de “Inteligencia
Artificial y Paz”. ¿Por qué? Pues porque, al día de hoy, la humanidad está desgarrada por
innumerables conflictos bélicos, como la guerra en la Franja de Gaza o Ucrania. Pero no son los
únicos lugares: en torno a Navidad 170 cristianos -nuevos “santos inocentes”- fueron asesinados
en el centro de Nigeria, o en México continúan las matanzas perpetradas por grupos ligados al
narcotráfico. ¿Por qué centrarse entonces en la Inteligencia Artificial y la Paz?
Además, cuando uno analiza el documento, descubre que en su brevedad -apenas 8
incisos- resulta mucho más ambicioso que un simple llamado a la paz. Obviamente destaca los
riesgos para la paz que supone la IA, e invita a utilizarla para construir caminos de paz. Pero el arco
de su contenido es más amplio, y supone en realidad una buena síntesis de los documentos
magisteriales precedentes sobre este novedoso tema. Constituye una forma de incluir a la IA
dentro de un texto magisterial de más alto grado y tradición, como puede ser el Mensaje para la
celebración de la 57 Jornada Mundial de la Paz.
El documento cuida de mantener un delicado equilibrio entre las posibilidades y peligros
que supone la IA. Parte de una realidad: su irrupción en la historia y el mundo no tiene vuelta
atrás. Con esta premisa nos invita a utilizarla bien, y nos advierte de los peligros de su mal uso.
Sobre los peligros de usar la IA en el campo militar, Francisco señala lo siguiente:
“La posibilidad de conducir operaciones militares por medio de sistemas de control
remoto ha llevado a una percepción menor de la devastación que estos han causado y
de la responsabilidad en su uso, contribuyendo a un acercamiento aún más frío y
distante a la inmensa tragedia de la guerra. La búsqueda de las tecnologías
emergentes en el sector de los denominados «sistemas de armas autónomos letales»,
incluido el uso bélico de la inteligencia artificial, es un gran motivo de preocupación
ética. Los sistemas de armas autónomos no podrán ser nunca sujetos moralmente
responsables… Tampoco podemos ignorar la posibilidad de que armas sofisticadas
terminen en las manos equivocadas facilitando, por ejemplo, ataques terroristas o
acciones dirigidas a desestabilizar instituciones de gobierno legítimas”.
Entre los aspectos que vale la pena remarcar en el nuevo documento de Francisco se
encuentra su insistencia en que los avances científico-tecnológicos no son “neutrales”, lo que
equivale a decir que poseen una intencionalidad, están al servicio de determinados intereses
culturales, económicos, políticos o ideológicos. Por ello mismo gozan de una dimensión ética.
La perspectiva ética nos dice que, a mayor poder, mayor responsabilidad. Por eso “las
cuestiones éticas deberían ser tenidas en cuenta desde el inicio de la investigación, así como en las
fases de experimentación, planificación, distribución y comercialización”. La seguridad, la paz, el
bien común, el respeto de la dignidad humana, requieren que la ética acompañe en todo su
desarrollo la elaboración de los sistemas de la IA.
Por otra parte, está el problema de determinar, ¿cuál ética? De hecho, sabemos que existen
abundantes modelos morales. Indudablemente Francisco apuesta por una propuesta
antropológica de corte humanista que de sustento a la ética necesaria para gestionar la IA. Por eso
mismo, “los desarrollos tecnológicos que no llevan a una mejora de la calidad de vida de toda la
humanidad, sino que, por el contrario, agravan las desigualdades y los conflictos, no podrán ser
considerados un verdadero progreso”. Progreso y humanismo van de la mano, y son resultado de
no perder de vista el fin de todo desarrollo tecnológico: la persona humana.
Algunos ejemplos de cómo la IA puede jugar en contra de la dignidad humana: “En el
futuro, la fiabilidad de quien pide un préstamo, la idoneidad de un individuo para un trabajo, la
posibilidad de reincidencia de un condenado o el derecho a recibir asilo político o asistencia social
podrían ser determinados por sistemas de inteligencia artificial”. También son “consecuencias
negativas unidas a su uso impropio, la discriminación, la interferencia en los procesos electorales,
la implantación de una sociedad que vigila y controla a las personas, la exclusión digital y la
intensificación de un individualismo cada vez más desvinculado de la colectividad”.
Francisco da en la diana cuando rechaza identificar la singularidad de la persona con un
cúmulo de datos, y al señalar cómo el algoritmo puede hacer que modifiquemos nuestro modo de
promover los derechos humanos.
El Papa nos invita a “reflexionar sobre el «sentido del límite» … El ser humano, mortal por
definición, pensando en sobrepasar todo límite gracias a la técnica, corre el riesgo, en la obsesión
de querer controlarlo todo, de perder el control de sí mismo, y en la búsqueda de una libertad
absoluta, de caer en la espiral de una dictadura tecnológica”.
Para enfrentar estos desafíos, el Papa ofrece dos sencillas sugerencias, no fáciles de
implementar ciertamente: Ofrecer una educación que agudice el sentido crítico hacia todo lo que
provenga del mundo digital y, particularmente, de la IA, por un lado y, en segundo lugar, elaborar
un tratado internacional vinculante para controlarla y encauzarla, y así produzca frutos
respetuosos de la dignidad y los derechos humanos.
Cabe señalar que Francisco está bien asesorado. Se nota en la redacción del documento una
puesta al día respecto de los textos magisteriales anteriores, cuando habla de “inteligencias
artificiales” -así, en plural- y “machine learning”, mostrando las diferencias que tienen con el
auténtico conocimiento humano. El panorama es, por ahora, todo menos claro. Es algo que está
naciendo en nuestras manos y plantea incógnitas que van más allá de lo estrictamente técnico,
para internarse en el ámbito antropológico, por lo que requieren un acercamiento interdisciplinar:
“Desarrollos como el machine learning o como el aprendizaje profundo (deep learning) plantean
cuestiones que trascienden los ámbitos de la tecnología y de la ingeniería y tienen que ver con una
comprensión estrictamente conectada con el significado de la vida humana, los procesos básicos
del conocimiento y la capacidad de la mente de alcanzar la verdad”.
Podemos concluir la reflexión sobre este texto, planteando con claridad los retos a los que
nos enfrenta esa apasionante realidad que es la IA:
“La inteligencia artificial, debe ser entendida como una galaxia de realidades distintas
y no podemos presumir a priori que su desarrollo aporte una contribución benéfica al
futuro de la humanidad y a la paz entre los pueblos. Tal resultado positivo sólo será
posible si somos capaces de actuar de forma responsable y de respetar los valores
humanos fundamentales como «la inclusión, la transparencia, la seguridad, la
equidad, la privacidad y la responsabilidad»”.
Dr. Salvador Fabre
masamf@gmail.com
No hay comentarios:
Publicar un comentario