A medida que los programas de IA continúan evolucionando y son más fáciles de acceder que nunca, esto hace que sea más difícil separar la realidad de la ficción. Solo esta semana, una imagen generada por IA de una explosión cerca del Pentágono apareció en los titulares en línea e incluso afectó levemente al mercado de valores hasta que rápidamente se descartó como un engaño.
Cayce Myers, profesora de la Escuela de Comunicaciones de Virginia Tech, explora esta tecnología en constante evolución y comparte su visión sobre el futuro de las falsificaciones profundas y cómo detectarlas.
“Cada vez es más difícil identificar la desinformación, especialmente la IA sofisticada generada por la IA”, dice Myers. “La barrera del costo para la IA generativa también es tan baja que hoy en día casi cualquier persona con una computadora e Internet tiene acceso a la IA”.
Myers cree que debido a esto, veremos mucha más desinformación, tanto visual como escrita, en los próximos años. “Descubrir esta información errónea requerirá que los usuarios sean más conocedores de los medios y más inteligentes al examinar la veracidad de cada afirmación”.
Si bien los programas de Photoshop han existido durante años, Myers dice que la diferencia entre ellos y la información errónea generada por IA es la sofisticación y el alcance. “Photoshop permite imágenes falsas, pero la IA puede crear videos alterados que son muy atractivos. Dado que la desinformación es ahora una fuente común de contenido en línea, este tipo de noticias falsas tiene el potencial de llegar a un público mucho más amplio, especialmente si el contenido se vuelve viral”.
Cuando se trata de abordar la desinformación, Myers dice que hay dos fuentes principales: nosotros mismos y las empresas de inteligencia artificial.
“Estudiar las fuentes, comprender las señales de alerta de la desinformación y compartir diligentemente en línea es una de mis formas personales de combatir la propagación de la desinformación”, dice. “Sin embargo, esto no es suficiente. Las empresas que producen contenido de IA y las redes sociales donde se propaga la desinformación deberán implementar un nivel de barreras para evitar que se propague la desinformación generalizada”.
Myers explica que el problema es que la tecnología de IA se ha desarrollado tan rápidamente que es probable que ningún mecanismo para evitar la propagación de información errónea generada por IA sea completamente probatorio.
Se están realizando intentos de regular la IA en los EE. UU. a nivel federal, estatal e incluso local. Los legisladores están considerando una variedad de temas, incluida la desinformación, la discriminación, la infracción de la propiedad intelectual y la privacidad.
“El problema es que los legisladores no quieren crear una nueva ley que regule la IA antes de que sepamos hacia dónde se dirige la tecnología. Hacer leyes demasiado rápido puede obstaculizar el desarrollo y el crecimiento de la inteligencia artificial, hacer leyes demasiado lento puede abrir la puerta a muchos problemas potenciales. Encontrar el equilibrio será un desafío”, dice Myers.