Centrémonos en los riesgos tangibles de la IA en lugar de especular sobre su posible amenaza existencial.

Nuria Oliver, Bernhard Schölkopf, Florence d’Alché-Buc, Nicolò Cesa-Bianchi, Sepp Hochreiter y Serge Belongie,

Centrémonos en los riesgos tangibles de la IA en lugar de especular sobre su posible amenaza existencial.

Fuente: Shutterstock/gopixa

En los últimos meses, la inteligencia artificial (IA) ha ingresado a la conversación global como resultado de la adopción generalizada de herramientas generativas basadas en IA, como chatbots y programas de generación de imágenes automatizadas. Destacados científicos y tecnólogos de IA han expresado su preocupación por amenazas existenciales hipotéticas creado por estos eventos.

Habiendo trabajado en IA durante décadas, este aumento de popularidad y sensacionalismo nos tomó por sorpresa. Nuestro objetivo en este artículo no es antagonizar sino equilibrar una opinión pública que parece dominada desproporcionadamente por los temores de los riesgos existenciales especulativos de la IA.

No nos corresponde a nosotros decir que no podemos o no debemos preocuparnos por amenazas más exóticas. como miembros Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes (ELLIS), una organización de investigación centrada en el aprendizaje automático, creemos que es nuestro trabajo poner estas amenazas en perspectiva, especialmente en el contexto de las organizaciones gubernamentales que consideran la adopción de medidas reglamentarias con las empresas tecnológicas.

¿Qué es la inteligencia artificial?

La inteligencia artificial es un campo de la informática o la ingeniería que ha tomado forma En los cincuentas. Su aspiración es construir sistemas de cómputo inteligentes, tomando como referencia la inteligencia humana. Así como la inteligencia humana es compleja y diversa, existen muchas áreas de la IA que pretenden imitar aspectos de la inteligencia humana, desde la percepción hasta el razonamiento, la planificación y la toma de decisiones.

Según el nivel de competencia, los sistemas de IA se pueden dividir en tres niveles:

  1. Inteligencia artificial estrecha o débil, que se refiere a los sistemas de inteligencia artificial que son capaces de realizar ciertas tareas o resolver ciertos problemas, ahora a menudo con un nivel de rendimiento que supera al de los humanos. Todos los sistemas de IA actuales son IA estrecha. Los ejemplos incluyen chatbots como chatGPTasistentes de voz como Siri y Alexa, sistemas de reconocimiento de imágenes y algoritmos de recomendación.
  2. Inteligencia artificial general o fuerte, que se refiere a los sistemas de inteligencia artificial que exhiben un nivel de inteligencia similar al de un ser humano, incluida la capacidad de comprender, aprender y aplicar el conocimiento a una amplia gama de tareas, e incluye conceptos como conciencia. La IA general es en gran medida hipotética y aún no se ha logrado. T

  3. Súper Inteligencia Artificial, que se refiere a los sistemas de inteligencia artificial cuya inteligencia supera a la inteligencia humana en todas las tareas. Por definición, no podemos entender este tipo de inteligencia de la misma manera que una hormiga no puede entender nuestra inteligencia. Super AI es un concepto aún más especulativo que la IA general.

La IA se puede aplicar a cualquier cosa, desde educación hasta transporte, atención médica, derecho y fabricación. Al hacerlo, cambia profundamente todos los aspectos de la sociedad. Incluso en su “IA estrecha”, tiene un potencial significativo para generar un crecimiento económico sostenible y ayudarnos hacer frente a los desafíos más apremiantes siglo XXI, como el cambio climático, las pandemias y la desigualdad.

Retos que plantean los sistemas de inteligencia artificial actuales

La adopción de sistemas de toma de decisiones basados ​​en IA durante la última década en una amplia gama de campos, desde las redes sociales hasta el mercado laboral, también conlleva importantes riesgos y desafíos sociales que deben comprenderse y abordarse.

La reciente aparición de modelos de transformadores preentrenados generativos (GPT) de gran capacidad exacerba muchos desafíos existentes y crea otros nuevos que merecen una atención especial. La escala y la velocidad sin precedentes con las que cientos de millones de personas en todo el mundo han adoptado estas herramientas ejercen una presión adicional sobre nuestros sistemas sociales y regulatorios.

Hay varios desafíos extremadamente importantes que deben ser nuestra prioridad:

  • La manipulación del comportamiento humano por algoritmos de inteligencia artificial con consecuencias sociales potencialmente devastadoras en la difusión de información falsa, la formación de la opinión pública y el resultado de los procesos democráticos.
  • algorítmico prejuicio y discriminación que no solo perpetúan sino que profundizan estereotipos, patrones de discriminación e incluso opresión.
  • Falta de transparencia en ambos modelos y sus aplicaciones.
  • Invasión de la privacidad y uso de grandes cantidades de datos de entrenamiento sin el consentimiento o compensación de sus creadores.
  • El explotación de los trabajadores anotar, entrenar y ajustar sistemas de IA, muchos de los cuales se encuentran en países en desarrollo con ingresos modestos.
  • El enorme huella de carbono Se necesitan grandes centros de datos y redes neuronales para construir estos sistemas de IA.
  • Falta de verdad en los sistemas generativos de IA que inventan contenidos verosímiles (imágenes, textos, audio, vídeo…) sin correspondencia con el mundo real.
  • La fragilidad de estos grandes modelos que pueden cometer errores y ser engañados.
  • Reubicación de puestos de trabajo y profesiones.
  • La concentración de poder en manos del oligopolio que controla los sistemas de IA actuales.

¿La inteligencia artificial realmente representa una amenaza existencial para la humanidad?

Desafortunadamente, en lugar de centrarse en estas amenazas tangibles, la discusión pública, especialmente las cartas abiertas recientes, se ha centrado principalmente en las hipotéticas amenazas existenciales de la IA.

El riesgo existencial se refiere a un evento o escenario potencial que amenaza la existencia continua de la humanidad con consecuencias que podrían dañar o destruir irreversiblemente la civilización humana y, por lo tanto, conducir a la extinción de nuestra especie. Las catástrofes globales (como el impacto de un asteroide o una pandemia), la destrucción de un planeta habitable (debido al cambio climático, la deforestación o el agotamiento de recursos críticos como el agua y el aire limpio) o la guerra nuclear mundial son ejemplos de amenazas existenciales. .

Nuestro mundo ciertamente enfrenta muchas amenazas, y los desarrollos futuros son difíciles de predecir. Ante esta incertidumbre, debemos priorizar nuestros esfuerzos. Por lo tanto, la posibilidad remota de una superinteligencia descontrolada debe verse en un contexto que incluya el contexto de los 3.600 millones de personas del mundo que son muy sensible al cambio climático; alrededor de mil millones de personas que viven con menos de $1 por día; o 2 mil millones de personas que son afectados por el conflicto. Se trata de personas reales cuyas vidas corren grave peligro hoy en día, un peligro que ciertamente no es causado por una superinteligencia artificial.

El enfoque en el riesgo existencial hipotético nos distrae de los serios desafíos documentados que plantea la IA en la actualidad, se pierde las diversas perspectivas de la comunidad investigadora en general y contribuye al pánico innecesario en la población.

Sin duda, la sociedad se beneficiaría si tuviera en cuenta la diversidad, la complejidad y los matices necesarios de estos problemas y si diseñara soluciones concretas y coordinadas que se puedan tomar para enfrentar los desafíos actuales de la IA, incluidos ordenanza. Hacer frente a estos desafíos requiere la cooperación y el compromiso de los sectores más afectados de la sociedad y la necesaria experiencia técnica y de gestión. Ahora es el momento de actuar con ambición y sabiduría, y en colaboración.

Presentado por Talk


Este artículo ha sido republicado desde Conversación bajo una licencia Creative Commons. leer artículo original.Conversación

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *