Anthropic elimina compromisos de seguridad en inteligencia artificial de su sitio web

Introducción a la Problemática de la Seguridad en la Inteligencia Artificial

La empresa Anthropic parece haber eliminado los compromisos de la era Biden relacionados con la creación de inteligencia artificial segura de su sitio web. Originalmente, esta acción fue detectada por un grupo de vigilancia de inteligencia artificial llamado The Midas Project. El lenguaje fue eliminado la semana pasada del centro de transparencia de Anthropic, donde la empresa enumera sus «compromisos voluntarios» relacionados con el desarrollo responsable de la inteligencia artificial. Aunque no eran vinculantes, el lenguaje eliminado prometía compartir información y investigación sobre los riesgos de la inteligencia artificial, incluyendo el sesgo, con el gobierno.

Compromisos Voluntarios y Desarrollo de la Inteligencia Artificial

Junto con otras grandes empresas de tecnología, como OpenAI, Google y Meta, Anthropic se unió al acuerdo voluntario para autorregularse en julio de 2023 como parte de las iniciativas de seguridad de la inteligencia artificial de la administración Biden, muchas de las cuales se codificaron posteriormente en la orden ejecutiva de inteligencia artificial de Biden. Las empresas se comprometieron a ciertos estándares para la prueba de seguridad de los modelos antes de su lanzamiento, la marcación de agua del contenido generado por la inteligencia artificial y el desarrollo de la infraestructura de privacidad de datos. Anthropic también acordó trabajar con el Instituto de Seguridad de la Inteligencia Artificial (creado bajo esa orden) para llevar a cabo muchas de las mismas prioridades.

Impacto de los Cambios en la Administración

Sin embargo, la administración Trump probablemente disolverá el Instituto, lo que dejará sus iniciativas en un estado de incertidumbre. Anthropic no anunció públicamente la eliminación del compromiso de su sitio web y mantiene que sus posturas existentes sobre la inteligencia artificial responsable no están relacionadas con o preceden a los acuerdos de la era Biden. Este movimiento es el último en una serie de desarrollos en el sector público y privado en torno a la inteligencia artificial, muchos de los cuales impactan el futuro de la seguridad y la regulación de la inteligencia artificial bajo la administración Trump.

Consecuencias y Perspectivas Futuras

En su primer día en el cargo, Trump revirtió la orden ejecutiva de Biden y ya ha despedido a varios expertos en inteligencia artificial dentro del gobierno y eliminado parte de la financiación para la investigación. Estos cambios parecen haber iniciado un cambio de tono en varias empresas de inteligencia artificial importantes, algunas de las cuales están aprovechando la oportunidad para expandir sus contratos gubernamentales y trabajar estrechamente con el gobierno para dar forma a una política de inteligencia artificial aún poco clara bajo Trump. Empresas como Google están cambiando ya definiciones sueltas de inteligencia artificial responsable, por ejemplo. En general, el gobierno ha perdido o está a punto de perder gran parte de la ya escasa regulación de la inteligencia artificial creada bajo Biden, y las empresas aparentemente tienen incluso menos incentivos externos para colocar controles en sus sistemas o responder a un tercero. Los controles de seguridad para el sesgo y la discriminación no parecen estar presentes en las comunicaciones de Trump sobre la inteligencia artificial. Esto plantea preocupaciones significativas sobre el futuro de la seguridad y la responsabilidad en el desarrollo de la inteligencia artificial, ya que la falta de regulación y supervisión puede llevar a consecuencias negativas para la sociedad. Es fundamental que se establezcan y se mantengan estándares claros y estrictos para garantizar que la inteligencia artificial se desarrolle y se utilice de manera responsable y segura.

Прокрутить вверх