Si la inteligencia es artificial, la responsabilidad es humana

El avance del desarrollo tecnológico se ha dado no sin polémicas ni temores de las sociedades. Básicamente, la preocupación es y ha sido por cómo la tecnología podría perjudicarnos. Hoy es el turno de la IA

Por: Francisco Cuamea

El fuego puede destruir… y también ayuda a la alimentación humana. La imprenta democratizó el conocimiento… y se usa para falsificar documentos. Con un martillo se construye… y además puede lastimar. 

El avance del desarrollo tecnológico se ha dado no sin polémicas ni temores de las sociedades. Básicamente, la preocupación es y ha sido por cómo la tecnología podría perjudicarnos. 

La tecnología es una herramienta y, como tal, la responsabilidad es de quien la usa. Así como no puede culparse a un auto por atropellar a un peatón, tampoco puede responsabilizarse a un algoritmo por un fraude bancario. Es la mano la que mece la cuna. 

Este debate ocurre hoy con la inteligencia artificial. Si bien es una herramienta que incluso tiene el potencial para ayudar a curar el cáncer, se teme que desarrolle la capacidad de autogobernarse y que los humanos pierdan el control.

Y no es una idea por ignorancia, esa preocupación es la línea de trabajo del Future of Life Institute, que entre sus asesores externos figuran físicos, astrónomos y genetistas, como Alan Guth, George Church, Martin Rees y el finado Stephen Hawking; así como Elon Musk, Alan Alda y Morgan Freeman.   

“Esta creencia no tiene nada que ver con los robots malvados o las máquinas inteligentes que se ven en la ciencia ficción. A corto plazo, la IA avanzada puede permitir que quienes buscan hacer daño (bioterroristas, por ejemplo) ejecuten fácilmente tareas de procesamiento complejas y sin conciencia”.

“Actualmente no tenemos una buena manera de saber cómo actuarán los sistemas de IA, porque nadie, ni siquiera sus creadores, entiende cómo funcionan”.

La regulación europea

Detrás de la irrupción de la IA en nuestras vidas en 2022, cuando Open AI lanzó Chat GPT, hay una historia de 20 años de desarrollo.

En esas dos décadas, esta tecnología superó el desempeño humano en comprensión lectora o manejo de idiomas, por ejemplo.

Una tecnología que tiene un impacto tan enorme debe ser de interés central para las personas de toda nuestra sociedad. Pero actualmente, la cuestión de cómo se desarrollará y utilizará esta tecnología se deja en manos de un pequeño grupo de empresarios e ingenieros”, advierten Charlie Giattino, Edouard Mathieu, Veronika Samborska y Max Roser en un análisis realizado para Our World in Data.

Ante la velocidad de su desarrollo y el muy previsible uso para cometer crímenes, en marzo, la Unión Europea aprobó la primera ley para regular el uso de la inteligencia artificial. También Brasil ha hecho lo propio.

Por ejemplo, la Ley sobre Inteligencia Artificial de la Unión Europea prohíbe el uso de la IA para estos casos. 

    • Despliegue de técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y perjudicar la toma de decisiones con conocimiento de causa, causando un daño significativo.
    • Explotar las vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas para distorsionar el comportamiento, causando daños significativos.

    • Puntuación social, es decir, evaluar o clasificar a individuos o grupos basándose en comportamientos sociales o rasgos personales, causando un trato perjudicial o desfavorable a esas personas.


Nueva época. 

Nuevos desafíos se acumulan con los no resueltos del pasado, nos exigen un paradigma social que abrace el pensamiento, antes del pragmatismo que nos caracteriza. 

Temas de esta nota