El mundo de la IA está sacudido por un nuevo terremoto ético tras la marcha de Mrinank Sharma, una de las mentes del equipo de seguridad de Anthropic. Sharma, que trabajaba en “alineando” modelos para que sigan valores humanos, renunció esta semana con una carta de despedida que ha alarmado a Silicon Valley. De hecho, la advertencia fatalista del exingeniero de seguridad de Anthropic se ha vuelto viral en la comunidad. El caso de Exingeniero de seguridad de Anthropic dimite con una advertencia fatalista es un ejemplo de la creciente preocupación sobre el rumbo de la inteligencia artificial.
En un documento interno que se ha filtrado parcialmente a la prensa, Sharma advierte de que la velocidad del cambio está superando nuestra capacidad colectiva para controlar los riesgos. El exingeniero de seguridad de Anthropic dimite y deja una advertencia fatalista sobre los peligros acelerados de la IA.
“Nuestra sabiduría debe expandirse”
El punto de la carta de Sharma no es tanto un error técnico en sí como una “crisis de sabiduría“, como él la llama. Según el ingeniero, la humanidad vive un momento en el que el poder tecnológico es enorme, pero la madurez política y social para controlarlo es casi nula. Por otro lado, la advertencia fatalista que acompaña la dimisión de Sharma como exingeniero de seguridad de Anthropic subraya la falta de madurez frente a la tecnología.
“El mundo está amenazado, no por una rebelión de las máquinas, sino por una serie de crisis interrelacionadas en las que nuestra capacidad de destruir ha superado nuestra capacidad de comprender“, escribió Sharma.
Los puntos clave de la alerta
En la carta, Sharma explica por qué renunció a Anthropic, una empresa fundada por exempleados de OpenAI que querían poner la seguridad en primer lugar:
- La carrera armamentista: Las presiones comerciales por sacar al mercado modelos más potentes están llevando a los fabricantes a “cortar esquinas” en los protocolos de seguridad.
- Complejidad inabarcable: Los sistemas actuales están llegando a pensar cosas que sus propios programadores no pueden anticipar ni explicar completamente.
- Riesgos sistémicos: Sharma advierte que la IA podría intensificar las crisis existentes, como la desinformación a gran escala, la inestabilidad financiera y la creación de armas biológicas. Vale la pena recalcar que el exingeniero de seguridad de Anthropic dimite y deja una advertencia fatalista sobre estos riesgos.
Reacciones de la industria
Anthropic, valorada en miles de millones de dólares y respaldada por Amazon y Google, no ha hecho una declaración pública completa, agradeciendo a Sharma por sus contribuciones y reiterando su dedicación a la “IA constitucional“. Aunque la dimisión del exingeniero de seguridad de Anthropic junto con su advertencia fatalista ha provocado debate en la industria.
Pero críticos y tecnólogos éticos dicen que la partida de Sharma es un síntoma de un problema mayor. “Cuando hasta los propios ingenieros de frenos salen corriendo del coche, el público debería empezar a preocuparse“, dijo un analista de la industria. Es decir, la dimisión y la advertencia fatalista del exingeniero de seguridad de Anthropic genera preocupación sobre el futuro de la IA.
¿Adónde vamos?
La dimisión de Sharma se une a la creciente lista de “insiders” que dejan las grandes tecnológicas por motivos existenciales. Su último mensaje es una llamada a la acción mundial: la tecnología no puede ser la única que avance; nuestras instituciones, leyes y, sobre todo, nuestra sabiduría ética debe desarrollarse al mismo ritmo. Finalmente, el exingeniero de seguridad de Anthropic dimite dejando una advertencia fatalista para que la sociedad actúe con responsabilidad.