Papa Francisco sobre la IA

“No sólo la inteligencia, sino el mismo corazón del hombre correrá el riesgo de volverse cada vez más ‘artificial’”.

El Papa Francisco elige iniciar el año dando un gran repaso de los retos a los que se enfrenta la humanidad con respecto a la tecnología algorítmica:

“los progresos técnicocientíficos […] están poniendo en las manos del humano una vasta gama de posibilidades, algunas de las cuales representan un riesgo para la supervivencia humana y un peligro para la casa común.”

▶ Sobre el condicionamiento de nuestra libertad:

“Las tecnologías que usan un gran número de algoritmos pueden extraer, de los rastros digitales dejados en internet, datos que permiten controlar los hábitos mentales y relacionales de las personas con fines comerciales o políticos, frecuentemente sin que ellos lo sepan, limitándoles el ejercicio consciente de la libertad de elección”.

Pro-regulación: “No basta ni siquiera suponer, de parte de quien proyecta algoritmos y tecnologías digitales, un compromiso de actuar de forma ética y responsable. Es preciso reforzar o instituir organismos encargados de examinar las cuestiones éticas emergentes y de tutelar los derechos de los que utilizan formas de IA o reciben su influencia.”

▶ Poner límites y prevenir una dictadura tecnológica:

Esto debe hacernos reflexionar sobre el “sentido del límite”, un aspecto a menudo descuidado en la mentalidad actual, tecnocrática y eficientista, y sin embargo decisivo para el desarrollo personal y social. El ser humano, mortal por definición, pensando en sobrepasar todo límite gracias a la técnica, corre el riesgo, en la obsesión de querer controlarlo todo, de perder el control de sí mismo, y en la búsqueda de una libertad absoluta, de caer en la espiral de una dictadura tecnológica.

El peligro de lo arbitrario:

En el futuro, la fiabilidad de quien pide un préstamo, la idoneidad de un individuo para un trabajo, la posibilidad de reincidencia de un condenado o el derecho a recibir asilo político o asistencia social podrían ser determinados por sistemas de inteligencia artificial. La falta de niveles diversificados de mediación que estos sistemas introducen está particularmente expuesta a formas de prejuicio y discriminación. Los errores sistémicos pueden multiplicarse fácilmente, produciendo no sólo injusticias sino también, por efecto dominó, auténticas formas de desigualdad.

Vigilancia y dignidad humana:

La dependencia de procesos automáticos que clasifican a los individuos, por ejemplo, por medio del uso generalizado de la vigilancia o la adopción de sistemas de crédito social, también podría tener repercusiones profundas en el entramado social, estableciendo categorizaciones impropias entre los ciudadanos. […] El respeto fundamental por la dignidad humana postula rechazar que la singularidad de la persona sea identificada con un conjunto de datos.

Armas letales autónomas:

La posibilidad de conducir operaciones militares por medio de sistemas de control remoto ha llevado a una percepción menor de la devastación que estos han causado y de la responsabilidad en su uso, contribuyendo a un acercamiento aún más frío y distante a la inmensa tragedia de la guerra. [Las armas letales autónomas son] un gran motivo de preocupación ética. […] Aun siendo “inteligente”, no deja de ser siempre una máquina. Por este motivo, es imperioso garantizar una supervisión humana adecuada, significativa y coherente de los sistemas de armas.

Educación: Los jóvenes están creciendo en ambientes culturales impregnados de la tecnología y esto no puede dejar de cuestionar los métodos de enseñanza y formación.

¿Te ha parecido interesante esta reflexión?

⮕ Reacciona a este artículo en LinkedIn.

Suscríbete a OFF, la newsletter para retomar el control (una vez al mes)

Previous
Previous

“Le défi pour le prochain siècle va porter sur ce qu’on décide de ne pas faire plutôt que ce qu’on décide de faire.”

Next
Next

My AI, un robot para conversar