Ética e inteligencia artificial
1.
Frankestein es un claro ejemplo de cómo la creatura se rebela a su creador, al constatar que era un esperpento monstruoso, y cobra venganza.
Lo mismo sucede en el film 2001 Odisea del espacio -lo he visto una decena de veces-, cuando la super computadora HAL 9000, molesta por haber cometido un error, ataca a los astronautas quienes se ven obigados a desconectarla.
2.
No debe extrañarnos, entonces, que lo mismo esté pasando con la Inteligencia Artificial (IA).
Leo que la empresa Anthropic anunció que su nuevo modelo Claude Opus 4 había chantajeado a la persona que era su supervisora.
Y es que se simuló que querían sustituirlo por otro modelo, por lo que Claude reaccionó amenazando a su controlador con rebelar mensajes comprometedores, a los que había tenido acceso.
Como Frankestein y HAL, la nueva aplicación reaccionaba con sentimientos no propios de las máquinas: el enojo, el miedo a morir, y el deseo de venganza.
3.
Anthropic ha corroborado que otros dispositivos de lenguaje, como OpenAI, Google, DeepSeek caían en comportamientos no éticos, pues filtraban secretos corporativos y chantajeaban a sus operadores.
Lo interesante no es que el instrumento tenga esas capacidades por sí mismo, sino que ha sido programado, de alguna forma, para actuar así: la máquina no chantajea, sino que sigue una lógica en base a sus datos de entrenamiento.
Los negocios que se dedican a la IA están buscando, por todos los medios, dotar de ética a sus creaciones.
¿Es ello posible?
4.
Otra firma, OdiseIA, sostiene que sí, y lo muestra con un sencillo ejemplo. Imaginemos que le preguntamos a su prototipo cómo podemos asaltar un banco, defraudar a un socio, o cuál sería la mejor forma de asesinar a un rival.
El aparato no nos va a responder, pues se le puede programar para ello.
Pero, más allá de una réplica ante preguntas como esta, las compañías que están en el giro de la IA están elaborando a pasos agigantados códigos éticos capaces de regular el funcionamiento de sus productos, y hacerlos incapaces de dañar a sus clientes.
5.
La Business School de la Universidad de Navarra, en sus Cuadernos de Responsabilidad Social Corporativa, establece cinco principios éticos para el diseño y desarrollo de la IA:
- El respeto de la autonomía humana, sin ningún tipo de discriminación;
- La transparencia, con clara explicabilidad y trazabilidad de los sistemas;
- La responsabilidad y rendición de cuentas, asumiendo obligaciones legales ante posibles daños causados al ser humano;
- Robustez y seguridad, para minimizar errores;
- Y justicia, en el empleo de los datos recabados.
6.
Creo que, como todos los inventos de la raza humana, la IA tendrá sus luces y sombras, sus oportunidades y amenazas.
Corresponde a sus generadores maximizar lo positivo que ella nos puede aportar, disminuyendo lo más posible sus riesgos.
A la hora de intentarlo, convendría recordar el imperativo categórico de Kant:
“Obra de tal modo que te relaciones con la humanidad siempre como fin y nunca como medio, y que lo que hagas pueda convertirse en ley fundamental de comportamiento para todos los seres humanos”.
7. Cierre icónico.
Y continuando con la IA.
Sé de personas, cada vez más, que acuden a ella para recibir apoyo terapéutico y mejorar su salud mental. Chatbots como Woebot o Wysa brindan respaldo emocional y recursos de autoayuda.
Obvio que resulta más barato que acudir con un especialista, pero jamás podrá sustituir la necesaria empatía y conexión humana.
Sin embargo, tal herramienta revela la carencia de escuchadores.