por Edith M. Lederer
No se puede confiar en el puñado de grandes empresas de tecnología que lideran la carrera para comercializar IA para garantizar la seguridad de los sistemas que aún no comprendemos y que son propensos a un “comportamiento caótico o impredecible”, dijo un ejecutivo de una empresa de IA. Reunión del Consejo de Seguridad sobre las amenazas de la IA a la paz mundial el martes.
Jack Clark, cofundador de la empresa de inteligencia artificial Anthropic, dijo que es por eso que el mundo debe unirse para evitar el mal uso de la tecnología.
Clark, quien dice que su compañía está haciendo todo lo posible para entrenar a su bot conversacional de IA para enfatizar la seguridad y la precaución, dijo que las cosas más útiles que se pueden hacer en este momento son “trabajar en el desarrollo de formas de probar las capacidades, el abuso y las fallas potenciales”. estos sistemas. Clark dejó OpenAI, creador del chatbot ChatGPT más famoso, para fundar Anthropic, cuyo producto de IA de la competencia se llama Claude.
Rastreó el desarrollo de la IA durante la última década hasta 2023, cuando los nuevos sistemas de IA puedan vencer a los pilotos militares en simulaciones de combates aéreos, estabilizar el plasma en reactores de fusión, diseñar componentes para semiconductores de próxima generación y controlar productos en líneas de producción.
Pero si bien la IA traerá enormes beneficios, su comprensión de la biología, por ejemplo, también podría usar un sistema de IA que podría producir armas biológicas, dijo.
Clark también advirtió sobre “amenazas potenciales para la paz, la seguridad y la estabilidad global internacionales” que surgen de dos características esenciales de los sistemas de IA: su potencial de abuso y su imprevisibilidad “así como la fragilidad inherente de estos sistemas desarrollados por un conjunto tan reducido de actores”. . ”
Clark enfatizó que las empresas de tecnología de todo el mundo cuentan con computadoras sofisticadas, grandes recursos de datos y capital para construir sistemas de inteligencia artificial y, por lo tanto, parece probable que continúen determinando su desarrollo.
En una videoconferencia para el organismo más poderoso de la ONU, Clark también expresó su esperanza de que el esfuerzo global tenga éxito.
Dijo que estaba complacido de ver a muchos países enfatizar la importancia de las pruebas y la evaluación de la seguridad en sus propuestas de IA, incluidos la Unión Europea, China y los Estados Unidos.
Sin embargo, actualmente no existen estándares o incluso mejores prácticas para “probar estos sistemas fronterizos en busca de discriminación, abuso o seguridad”, lo que dificulta que los gobiernos creen políticas y permite que el sector privado disfrute de una ventaja de información, dijo.
“Cualquier enfoque sensato de la regulación comienza con la capacidad de evaluar un sistema de IA para una capacidad o defecto determinado”, dijo Clark. “Cualquier enfoque fallido comenzará con grandes ideas políticas que no están respaldadas por una medición y evaluación efectivas”.
Dijo que con una evaluación sólida y creíble de los sistemas de IA, “los gobiernos pueden responsabilizar a las empresas y las empresas pueden ganarse la confianza del mundo donde quieren implementar sus sistemas de IA”. Pero a menos que haya una evaluación sólida, dijo, “corremos el riesgo de un secuestro regulatorio que amenace la seguridad global y entregue el futuro a un conjunto reducido de actores del sector privado”.
Otros directores de IA, como el CEO de OpenAI, Sam Altman, también han pedido regulación. Sin embargo, los escépticos dicen que la regulación podría ser una bendición para los novatos con mucho dinero, liderados por OpenAI, Google y Microsoft, ya que los jugadores más pequeños se sienten desanimados por el alto costo de llevar sus grandes modelos de lenguaje a las restricciones regulatorias.
El secretario general de la ONU, Antonio Guterres, dijo que la ONU es un “lugar ideal” para adoptar estándares globales para maximizar los beneficios de la IA y reducir sus riesgos.
Advirtió al Consejo que la aparición de la IA generativa podría tener consecuencias muy graves para la paz y la seguridad internacionales, señalando su uso potencial por parte de terroristas, delincuentes y gobiernos, causando “niveles espantosos de muerte y destrucción, trauma generalizado y profundo daño psicológico en un escala inimaginable”.
Como primer paso para acercar a las naciones, Guterres dijo que está creando una Junta Asesora de Alto Nivel sobre Inteligencia Artificial, que informará sobre las opciones de gobernanza global de IA para fin de año.
El jefe de la ONU también dijo que agradece los llamados de algunos países para crear un nuevo organismo de la ONU para apoyar los esfuerzos globales para gobernar la inteligencia artificial, “inspirado en modelos como la Agencia Internacional de Energía Atómica, la Organización de Aviación Civil Internacional y el Panel Intergubernamental”. sobre el cambio climático”.
El profesor Zeng Yi, director del Laboratorio de Inteligencia Cognitiva inspirado en el cerebro de la Academia de Ciencias de China, dijo al consejo que “la ONU debe desempeñar un papel central en el establecimiento de un marco para la inteligencia artificial para el desarrollo y la gobernanza a fin de garantizar la paz y la seguridad mundiales”.
Zeng, quien también codirige el Centro de Investigación de Ética y Gobernanza de la IA de China y el Reino Unido, sugirió que el Consejo de Seguridad considere establecer un grupo de trabajo para considerar los desafíos a corto y largo plazo que la IA plantea para la paz y la seguridad internacionales.
En su sesión informativa en video, Zeng enfatizó que los últimos sistemas de IA generativa “son todas herramientas de procesamiento de información que parecen ser inteligentes” pero que no tienen una comprensión real y, por lo tanto, “no son verdaderamente inteligentes”.
Y advirtió que “la IA nunca, nunca, debería pretender ser humana”, enfatizando que los humanos reales deben mantener el control, especialmente de todos los sistemas de armas.
El secretario de Relaciones Exteriores británico, James Cleverly, quien presidió la reunión mientras el Reino Unido ocupa la presidencia del Consejo este mes, dijo que el Reino Unido reunirá a los líderes mundiales para la primera gran cumbre mundial sobre seguridad de IA este otoño.
“Ningún país quedará al margen de la IA, por lo que debemos comprometernos y comprometernos con la coalición más amplia de actores internacionales de todos los sectores”, dijo. “Nuestro objetivo común será considerar los riesgos de la IA y decidir cómo pueden mitigarse mediante acciones coordinadas”.
© 2023 Prensa Asociada. Reservados todos los derechos. Este material no puede ser publicado, transmitido, reescrito o redistribuido sin permiso.