Los rápidos avances en inteligencia artificial (IA) han alentado a algunas de las voces líderes en el campo. por favor deja de investigarplantear la posibilidad La extinción humana impulsada por la inteligencia artificiale incluso solicitar la regulación del gobierno. Detrás de su preocupación está la idea de que la IA podría volverse tan poderosa que perdamos el control sobre ella.
Pero, ¿hemos pasado por alto un problema más fundamental?
En última instancia, los sistemas de IA deberían ayudar a las personas a tomar decisiones mejores y más precisas. Sin embargo, incluso las herramientas de IA más impresionantes y flexibles, como los grandes modelos de lenguaje detrás de ChatGPT, pueden resultar contraproducentes.
¿Por qué? Tienen dos grandes debilidades. No ayudan a los tomadores de decisiones a comprender la causalidad o la incertidumbre. Crean incentivos para recopilar cantidades masivas de datos y pueden fomentar un enfoque laxo con respecto a la privacidad, las cuestiones legales y éticas y el riesgo.
Causa, efecto y certeza
ChatGPT y otros “modelos básicos” utilizan un enfoque llamado aprendizaje profundo para analizar grandes conjuntos de datos e identificar asociaciones entre factores en esos datos, como patrones lingüísticos o asociaciones entre imágenes y descripciones. Como tales, son excelentes para interpolar, es decir, para predecir o llenar los espacios entre valores conocidos.
Interpolación no es lo mismo que creación. No genera el conocimiento o las percepciones que necesitan los tomadores de decisiones que operan en entornos complejos.
Sin embargo, estos enfoques requieren grandes cantidades de datos. Como resultado, alientan a las organizaciones a recopilar grandes repositorios de datos o buscar conjuntos de datos existentes recopilados para otros fines. Tratar con “grandes datos” conlleva importantes riesgos de seguridad, privacidad, legales y éticos.
En situaciones de bajo riesgo, las predicciones basadas en lo que sugieren los datos pueden ser extremadamente útiles. Pero cuando hay más en juego, hay dos preguntas más que debemos responder.
El primero es cómo funciona el mundo: “¿qué impulsa esta partitura?” El segundo se refiere a nuestro conocimiento del mundo: “¿qué tan seguros estamos?”
Del big data a la información procesable
Quizás sorprendentemente, los sistemas de IA diseñados para inferir relaciones causales no necesitan “grandes datos”. En cambio, necesitan información útil. La utilidad de la información depende de la pregunta en cuestión, las decisiones que enfrentamos y el valor que le damos a las consecuencias de esas decisiones.
Parafraseando al estadístico y escritor estadounidense Nate Silver, The cantidad de verdad es aproximadamente constante, independientemente de la cantidad de datos recopilados.
¿Entonces, cuál es la solución? El proceso comienza con el desarrollo de técnicas de IA que nos dicen lo que realmente no sabemos, en lugar de crear variaciones del conocimiento existente.
¿Por qué? Porque nos ayuda a identificar y obtener la mínima cantidad de información valiosa, en un orden que nos permita desentrañar causa y efecto.
Un robot en la luna
Estos sistemas de inteligencia artificial para la creación de conocimientos ya existen.
Como un ejemplo simple, considere un robot enviado a la luna para responder a la pregunta “¿Cómo es la superficie de la luna?”
Los diseñadores del robot pueden darle una “confianza” previa de lo que encontrará, junto con una indicación de cuánta “confianza” debe tener en esa creencia. El grado de certeza es tan importante como la creencia porque es una medida de lo que el robot no sabe.
El robot aterriza y se enfrenta a una decisión: ¿en qué dirección debe volar?
Dado que el objetivo del robot es aprender sobre la superficie de la luna lo más rápido posible, debe seguir una dirección que maximice su conocimiento. Esto se puede medir por cuánto conocimiento nuevo reducirá la incertidumbre del robot sobre el paisaje, o cuánto aumentará la confianza del robot en su conocimiento.
El robot viaja a una nueva ubicación, registra las observaciones con sus sensores y actualiza sus creencias y la confianza relacionada. Así es como aprende la superficie de la luna de la manera más eficiente.
Dichos sistemas robóticos, conocidos como “SLAM activo” (localización y mapeo simultáneos activos), se propusieron por primera vez hace más de 20 añosy todavía lo son área de investigación activa. Este enfoque de acumular conocimiento constantemente y actualizar su comprensión se basa en una técnica estadística llamada optimización bayesiana.
Mapeando paisajes desconocidos
Un tomador de decisiones en el gobierno o la industria está lidiando con más complejidad que un robot en la luna, pero la mentalidad es la misma. Su trabajo es explorar y mapear paisajes sociales o económicos desconocidos.
Supongamos que queremos desarrollar una política que aliente a todos los niños a tener éxito en la escuela y graduarse de la escuela secundaria. Necesitamos un mapa conceptual de qué acciones, cuándo y en qué condiciones ayudarán a lograr estos objetivos.
Usando los principios de cómo funciona el robot, formulamos la pregunta inicial: “¿Qué intervenciones ayudarán más a los niños?”
Luego construimos un boceto del mapa conceptual utilizando el conocimiento existente. También necesitamos una medida de nuestra confianza en ese conocimiento.
Luego desarrollamos un modelo que tiene en cuenta varias fuentes de información. Estos no serán sensores de robots, sino comunidades, experiencias de vida y cualquier información útil de los datos registrados.
Luego, con base en el análisis que informa a la comunidad y las preferencias de los interesados, tomamos una decisión: “¿Qué actividades y en qué condiciones se deben realizar?”
Finalmente, discutimos, aprendemos, actualizamos creencias y repetimos el proceso.
Aprendemos sobre la marcha
Este es un enfoque de “aprender sobre la marcha”. A medida que surge nueva información, se seleccionan nuevas acciones para maximizar algunos criterios predeterminados.
La IA puede ser útil para identificar qué información es más valiosa, utilizando algoritmos que cuantifican lo que no sabemos. Los sistemas automatizados también pueden recopilar y almacenar esta información a un ritmo y en lugares donde podría ser difícil para los humanos hacerlo.
Los sistemas de inteligencia artificial como este utilizan los llamados Marco de la teoría de la decisión bayesiana. Sus modelos son comprensibles y transparentes, construidos sobre suposiciones claras. Son matemáticamente rigurosos y pueden ofrecer garantías.
Están diseñados para estimar las vías causales para ayudar a realizar la mejor intervención en el mejor momento. Y tienen en cuenta los valores humanos porque son codiseñados y coimplementados por las comunidades a las que afectan.
Necesitamos reformar nuestras leyes y crear nuevas reglas para guiar el uso de sistemas de IA potencialmente peligrosos. Pero es igual de importante elegir la herramienta adecuada para el trabajo en primer lugar.
Este artículo ha sido republicado desde Conversación bajo una licencia Creative Commons. leer artículo original.