Gary Marcus testificando ante el Senado de los Estados Unidos durante una audiencia de AI a mediados de mayo de 2023

Gary Marcus testificando ante el Senado de los Estados Unidos durante una audiencia de AI a mediados de mayo de 2023

Gary Marcus testificó ante el Senado de los Estados Unidos durante una audiencia de inteligencia artificial a mediados de mayo de 2023.

Desde que ChatGPT apareció en escena hace seis meses, el experto Gary Marcus ha estado advirtiendo contra el desarrollo y la adopción ultrarrápidos de la IA.

Pero contrariamente a los visionarios apocalípticos de AI, un profesor emérito de la Universidad de Nueva York dijo a AFP en una entrevista reciente que los peligros existenciales de la tecnología ahora pueden ser “exagerados”.

“Personalmente, no me preocupa el riesgo de extinción, al menos por ahora, porque los escenarios no son tan específicos”, dijo Marcus de San Francisco.

“El problema más general que me preocupa… es que estamos construyendo sistemas de inteligencia artificial sobre los que no tenemos un buen control, y creo que eso plantea muchos riesgos, (pero) tal vez no literalmente existenciales. ”

Mucho antes de que apareciera ChatGPT, Marcus diseñó su primer programa de IA para la escuela secundaria, un software de traducción del latín al inglés, y después de años de estudiar psicología infantil, fundó Geometric Intelligence, una empresa de aprendizaje automático que más tarde adquirió Uber.

“¿Por qué Inteligencia Artificial?”

En marzo, preocupado porque el desarrollador de ChatGPT, OpenAI, estaba lanzando su último y más poderoso modelo de IA con Microsoft, Marcus firmó una carta abierta con más de 1,000 personas, incluido Elon Musk, pidiendo una pausa global de IA.

Pero la semana pasada no firmó una declaración más concisa de líderes empresariales y profesionales, incluido el jefe de OpenAI, Sam Altman, que causó revuelo.

Los líderes mundiales deberían trabajar para reducir el “riesgo de extinción” de la tecnología de inteligencia artificial, instaron los signatarios.

La declaración de una línea dice que abordar las amenazas de la IA debería ser una “prioridad global junto con otras amenazas sociales como las pandemias y la guerra nuclear”.

Los firmantes incluyeron aquellos sistemas de construcción para lograr una IA “general”, una tecnología que mantendría las capacidades cognitivas a la par con las de los humanos.

“Si realmente crees que existe un riesgo existencial, ¿por qué estás trabajando en eso? Esa es una pregunta bastante justa”, dijo Marcus.

En lugar de centrarse en escenarios más distantes donde nadie sobreviviría, supuso Marcus, la sociedad debería prestar atención a dónde se encuentran los peligros reales.

“La gente puede tratar de manipular los mercados usando IA para crear todo tipo de caos, y luego podemos, por ejemplo, culpar a los rusos y decir ‘mira lo que le han hecho a nuestro país’ cuando los rusos no estaban realmente involucrados. ,” él continuó.

“Puedes tener una escalada que termine en una guerra nuclear o algo así. Así que creo que hay escenarios en los que fue bastante grave. ¿Extinción? No sé”.

Una amenaza para la democracia

A corto plazo, el experto en psicología se preocupa por la democracia.

El software de IA generativa produce fotos falsas cada vez más convincentes y, pronto, videos, a bajo costo.

Como resultado, “las personas que son mejores para difundir desinformación ganarán las elecciones, y estas personas pueden cambiar las reglas y realmente dificultar la democracia”.

Además, “la democracia se basa en tener información sólida y tomar buenas decisiones. Si nadie sabe qué creer, ¿cómo lidias con la democracia?”.

Sin embargo, el autor del libro “Reiniciar la IA” cree que no debemos perder la esperanza mientras seguimos viendo “muchas ventajas”.

Definitivamente existe la posibilidad de que la IA, que aún no se ha inventado, pueda “ayudar en la ciencia, la medicina, el cuidado de los ancianos”, dijo Marcus.

“Pero a corto plazo, siento que no estamos listos. Habrá algunos daños en el camino y realmente necesitamos mejorar nuestro juego, necesitamos establecer algunas regulaciones serias”, dijo.

En una audiencia en el Senado de EE. UU. en mayo, sentado junto a Altman de OpenAI, Marcus abogó por la creación de una agencia nacional o internacional responsable de administrar la inteligencia artificial.

La idea también la apoya Altman, quien acaba de regresar de una gira europea en la que instó a los líderes políticos a encontrar el “equilibrio adecuado” entre seguridad e innovación.

Pero cuidado con dejar el poder a las corporaciones, advirtió Marcus.

“Los últimos meses han sido un verdadero recordatorio de que las grandes empresas que deciden el destino no están necesariamente interesadas en el resto de nosotros”, advirtió.

© 2023 AFP

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *