La inteligencia artificial representa un “riesgo existencial” para la humanidad, advirtió un innovador clave durante una visita a los Emiratos Árabes Unidos el martes, sugiriendo que una agencia internacional como la Agencia Internacional de Energía Atómica está supervisando la tecnología disruptiva.
El CEO de OpenAI, Sam Altman, se embarca en una gira mundial para hablar sobre la IA.
“El desafío al que se enfrenta el mundo es cómo gestionar esos riesgos y asegurarnos de seguir disfrutando de estos enormes beneficios”, dijo Altman, de 38 años. “Nadie quiere destruir el mundo”.
ChatGPT de OpenAI, un chatbot popular, llamó la atención del mundo al ofrecer respuestas similares a ensayos a las indicaciones de los usuarios. Microsoft ha invertido alrededor de mil millones de dólares en OpenAI.
El éxito de ChatGPT, que brinda información sobre cómo la IA podría transformar la forma en que las personas trabajan y aprenden, también ha generado inquietudes. Cientos de líderes de la industria, incluido Altman, firmaron una carta en mayo advirtiendo que “reducir el riesgo de extinción de la IA debería ser una prioridad global junto con otras amenazas a escala social como las pandemias y la guerra nuclear”.
Altman se refirió a la IAEA, el organismo regulador nuclear de la ONU, como un ejemplo de cómo el mundo se ha unido para supervisar la energía nuclear. Esta agencia se estableció en los años posteriores a que EE. UU. arrojara bombas atómicas sobre Japón al final de la Segunda Guerra Mundial.
“Asegurémonos de encontrarnos como un globo, y espero que este lugar pueda desempeñar un papel real en eso”, dijo Altman. “Estamos hablando del OIEA como un modelo en el que el mundo dijo: ‘Está bien, tecnología muy peligrosa, levantemos barreras de protección’. Y creo que podemos hacer ambas cosas.
“Creo que es un mensaje matizado en este caso porque dice que no es tan peligroso hoy, pero podría volverse peligroso rápidamente. Pero podemos enhebrar esa aguja”.
Los legisladores de todo el mundo también están explorando la inteligencia artificial. La Unión Europea de 27 países está impulsando una ley sobre inteligencia artificial que podría convertirse en el estándar global de facto para la inteligencia artificial. Altman le dijo al Congreso de los Estados Unidos en mayo que la intervención del gobierno sería fundamental para gestionar los riesgos de la IA.
Pero los Emiratos Árabes Unidos, una federación autocrática de siete jeques gobernados hereditariamente, ofrece el otro lado del riesgo de la IA. El habla permanece estrictamente controlada. Las organizaciones de derechos humanos advierten que los Emiratos Árabes Unidos y otros estados del Golfo usan regularmente software espía para monitorear a activistas, periodistas y otros. Estas restricciones afectan el flujo de información precisa: los mismos detalles en los que se basan los programas de IA como ChatGPT como sistemas de aprendizaje automático para proporcionar respuestas a los usuarios.
Los oradores de apertura de Altman en el evento del mercado global de Abu Dhabi incluyeron a Andrew Jackson, director ejecutivo del Inception Institute of AI, que se anuncia como la compañía G42.
El G42 está asociado con el poderoso asesor de seguridad nacional y vicegobernante de Abu Dabi, Sheikh Tahnoun bin Zayed Al Nahyan. El CEO de G42 es Peng Xiao, quien durante años dirigió Pegasus, una subsidiaria de DarkMatter, una firma de seguridad emiratí que está siendo investigada por contratar a ex empleados de la CIA y la NSA, así como a otras personas israelíes. G42 también posee una aplicación de llamadas de video y voz que, según se informa, era una herramienta de espionaje para el gobierno emiratí.
En sus comentarios, Jackson se describió a sí mismo como representante del “ecosistema de inteligencia artificial de Abu Dabi y los Emiratos Árabes Unidos”.
“Somos una potencia política y desempeñaremos un papel clave en la regulación de la IA en todo el mundo”, dijo.
© 2023 Prensa Asociada. Reservados todos los derechos. Este material no puede ser publicado, transmitido, reescrito o redistribuido sin permiso.