inteligencia artificial

inteligencia artificial

Crédito: CC0 Dominio público

Hay una necesidad urgente de apoyar a los ciudadanos con un sistema de autodefensa digital, argumenta un experto en neurociencia del Instituto Baker de Políticas Públicas de la Universidad de Rice.

Se necesitan pasos para regular la inteligencia artificial avanzada (IA) y las redes sociales mejoradas con IA para proteger a las personas de la IA “hackeando” nuestras relaciones humanas e inteligencia colectiva, dice Harris Eyre, investigador de salud cerebral en el Instituto Baker.

“Si bien dicha tecnología acerca el mundo entero a nuestros dispositivos y ofrece amplias oportunidades para la autorrealización individual y comunitaria, también puede distorsionar la realidad y crear falsas ilusiones”, escribe un nuevo informe. “Al difundir desinformación e información errónea, las redes sociales y la inteligencia artificial plantean un desafío directo al funcionamiento de nuestras democracias”.

Actualmente, las falsificaciones profundas ya están causando preocupación a medida que el país ingresa a la temporada electoral. Eyre dice que existe una necesidad urgente de políticas basadas en la neurociencia para apoyar a los ciudadanos en la lucha contra la inteligencia artificial, como el “neuroescudo”.

“La forma en que interpretamos la realidad que nos rodea, la forma en que aprendemos y reaccionamos, depende de cómo está conectado nuestro cerebro”, escribe. “Se argumenta que, dado el rápido desarrollo de la tecnología, no se ha dado suficiente tiempo a la evolución para desarrollar aquellas áreas de la neocorteza que son responsables de las funciones cognitivas superiores. Como consecuencia, somos biológicamente vulnerables y vulnerables”.

Neuroshield implicaría un enfoque triple: desarrollar un código de conducta para la objetividad de la información, implementar salvaguardas regulatorias y crear un conjunto de herramientas de educación para los ciudadanos.

El informe argumenta que la colaboración entre editores, periodistas, líderes de medios, formadores de opinión y científicos del cerebro puede crear un “código de conducta” que apoye la objetividad de la información. Eyre explica que está dentro del ámbito de la libertad social y política interpretar los hechos, pero se deben proteger las verdades innegables.

“Como muestra la neurociencia, la ambigüedad en la comprensión de los hechos puede crear ‘verdades alternativas’ que se codifican fuertemente en nuestros cerebros”, explica.

Un conjunto de herramientas desarrollado con neurocientíficos podría proteger la libertad cognitiva al tiempo que protege a las personas, especialmente a los jóvenes en las redes sociales, de la información errónea. El propósito principal del conjunto de herramientas sería ayudar a las personas a aprender cómo hacer su propia verificación de hechos y combatir la vulnerabilidad del cerebro al sesgo y la desinformación. Por ejemplo, Google actualmente está ejecutando campañas en otros países que muestran videos cortos en sitios de redes sociales y resaltan cómo se pueden hacer afirmaciones engañosas.

Sin embargo, el autogobierno y la confianza exclusiva en un código de conducta pueden crear un campo de juego desigual, argumenta Eyre.

“El desarrollo de este enfoque político es fundamental tanto para los responsables políticos como para los científicos del cerebro”, dice. “La ley europea propuesta sobre inteligencia artificial es un ejemplo de cómo se puede hacer que los proveedores de modelos de IA rindan cuentas y sean transparentes. Con la estrecha participación de los neurocientíficos en la planificación e implementación de Neuroshield, los Estados Unidos pueden garantizar que se incorporen los mejores conocimientos existentes sobre cómo funciona nuestra cognición”.

Más información:
Informe: Presentamos ‘Neuroshield’: un enfoque político para proteger a los ciudadanos de las amenazas de la IA

Proporcionado por la Universidad de Rice


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *