Geoffrey Hinton, uno de los llamados padrinos de la inteligencia artificial, pidió el miércoles a los gobiernos que intervengan y se aseguren de que las máquinas no se apoderen de la sociedad.
Hinton fue noticia en mayo cuando anunció que dejaría Google después de una década de trabajo para hablar más libremente sobre los peligros de la inteligencia artificial, poco después de lanzar ChatGPT que capturó la imaginación del mundo.
Un científico de inteligencia artificial muy respetado que trabaja en la Universidad de Toronto habló ante una audiencia repleta en la conferencia tecnológica Collision en la ciudad canadiense.
La conferencia reunió a más de 30 000 fundadores de empresas emergentes, inversionistas y trabajadores tecnológicos, la mayoría de los cuales quiere aprender a subirse a la ola de la IA y no escuchar lecciones sobre sus peligros.
“Antes de que la IA se vuelva más inteligente que nosotros, creo que se debe alentar a quienes la desarrollan a trabajar mucho para comprender cómo podría tratar de recuperar el control”, dijo Hinton.
“En este momento hay 99 personas muy inteligentes tratando de mejorar la IA, y una persona muy inteligente está tratando de descubrir cómo evitar que esto se haga cargo, o tal vez quieras ser más sostenible”, dijo.
Hinton advirtió que los riesgos de la inteligencia artificial deben tomarse en serio, a pesar de sus críticos que creen que exagera los riesgos.
“Creo que es importante que la gente entienda que esto no es ciencia ficción, esto no es solo alarmismo”, insistió. “Es un riesgo real en el que debemos pensar y descubrir de antemano cómo lidiar con él”.
Hinton también expresó su preocupación de que la IA exacerbe las desigualdades y que las ganancias masivas de productividad resultantes de su implementación beneficien a los ricos, no a los trabajadores.
“La riqueza no irá a la gente que trabaja. Se utilizará para que los ricos sean aún más ricos, no pobres, y eso es muy malo para la sociedad”, agregó.
También señaló el peligro de los mensajes falsos creados por bots al estilo de ChatGPT y dijo que esperaba que el contenido generado por IA pudiera etiquetarse de manera similar a como los bancos centrales etiquetan efectivo con dinero.
“Es muy importante tratar de etiquetar todo lo que es falso como falso, por ejemplo. No sé si podemos hacerlo técnicamente”, dijo.
La Unión Europea está considerando tal técnica en su Ley de IA, un proyecto de ley que definirá las reglas para la IA en Europa, que actualmente está siendo negociado por los legisladores.
“Superpoblación en Marte”
La lista de amenazas de IA de Hinton contrastó con las discusiones de la conferencia que se centraron menos en la seguridad y las amenazas y más en aprovechar la oportunidad creada a raíz de ChatGPT.
La capitalista de riesgo Sarah Guo dijo que hablar de la IA como una amenaza existencial era prematuro y lo comparó con “hablar sobre la superpoblación en Marte”, citando al gurú de la IA Andrew Ng.
También advirtió contra la “captura regulatoria” donde la intervención del gobierno protegería a los titulares antes de que tuvieran la oportunidad de beneficiar a sectores como la salud, la educación o la ciencia.
Las opiniones difieren en cuanto a si los gigantes actuales de la IA generativa, en su mayoría respaldados por Microsoft OpenAI y Google, no tendrán rival o si los nuevos actores expandirán el campo con sus propios modelos e innovaciones.
“Dentro de cinco años, todavía me imagino que si quieres encontrar el mejor modelo genérico, el más preciso y el más avanzado, probablemente tendrás que ir a una de las pocas empresas que tienen el capital para hacerlo”, dijo. Leigh Marie Braswell de la firma de capital de riesgo Kleiner Perkins.
Zachary Bratun-Glennon de Gradient Ventures dijo que imaginó un futuro en el que “habrá millones de modelos en línea, al igual que tenemos una red de sitios web hoy”.
© 2023 AFP