Con un gran poder viene una gran responsabilidad. Cuando se trata de Internet, el poder reside en la gran cantidad de información disponible para los usuarios de todo el mundo, pero ¿quién es responsable de asegurarse de que la información allí sea buena y verdadera?
La “mala” información tiene graves consecuencias. La desinformación, la propaganda y las noticias falsas son comunes en Internet y las plataformas de redes sociales y pueden convertirse en armas, lo que lleva al abuso cibernético y, en casos graves, a disturbios civiles.
El Instituto de Ciencias de la Información (ISI) de la Universidad del Sur de California, una unidad de la Escuela de Ingeniería de Viterbi, está trabajando en dos proyectos para abordar este problema desde dentro: mediante el desarrollo de tecnología que pueda ejercitar su capacidad de razonamiento cuando se enfrenta a este “mal ” información.
La tecnología serviría como asistente para los moderadores humanos encargados de vigilar las plataformas en línea y buscar contenido malicioso.
Tecnología en la que puede confiar
El primer proyecto trata sobre la detección de falacias lógicas en argumentos de lenguaje natural.
Entonces, ¿qué es exactamente una falacia lógica?
Las falacias son errores en el razonamiento que se utilizan para probar que un argumento es verdadero. Sus orígenes se remontan mucho antes de la era de Internet: su debate filosófico tiene sus raíces en la antigua Grecia, hace unos 2.800 años.
En el contexto de la web, las falacias lógicas aparecen en forma de afirmaciones falsas o engañosas que circulan como resultado del libre intercambio de información a gran escala que permite Internet.
Filip Ilievski, jefe de investigación del ISI y profesor asistente de la USC, dijo que encontrar falacias lógicas es el primer paso a dominar antes de enfrentarse a los verdaderos gigantes que pueden manifestarse como resultado del intercambio de información en la red.
“Una vez que pueda identificar de manera confiable y transparente las falacias lógicas, puede aplicar esta tecnología para lidiar con casos de desinformación, noticias falsas y propaganda”, dijo Ilievski.
Este trabajo es el primero de su tipo en utilizar múltiples capas para detectar errores lógicos, explicó Ilievski. Esto implica pedirle al modelo que primero determine si un argumento dado es razonable, luego vaya “un nivel más profundo” e “identifique en un nivel alto qué tipo de error contiene el argumento”.
¿Cómo saben?
La IA explicable puede identificar falacias lógicas y clasificarlas de dos maneras principales: razonamiento basado en casos y métodos de creación de prototipos.
Ilievski señaló que el trabajo de ISI es uno de los primeros en combinar los dos modelos con modelos de lenguaje y “ajustarlos a situaciones y tareas arbitrarias”.
El razonamiento basado en casos es exactamente lo que parece. Al modelo se le muestra un viejo ejemplo de argumento con falacias lógicas similares y luego usa ese conocimiento para inferir sus decisiones sobre el nuevo argumento.
“Tienes razón, no sé cómo resolver este argumento, pero tengo este viejo ejemplo que puedes usar en el nuevo frente a ti”, explicó Ilievski.
Los métodos prototipo siguen el mismo proceso. La única diferencia es que el modelo extrae conclusiones de un caso básico simplificado que se puede construir y aplicar a un ejemplo específico.
La clave aquí es que estos modelos hacen más que solo identificar una falacia lógica: brindan explicaciones razonables para respaldar su juicio, una acción que, según Ilievski, es un “factor alentador” para el futuro de estos métodos en la práctica.
La mejor herramienta de un hombre.
¿Cómo se compara esto con el mundo real, con los gigantes reales (propaganda, desinformación y noticias falsas) que amenazan Internet?
Ilievski imagina que estas IA explicables actúan como “herramientas de asistencia humana” que ayudan a los moderadores o analistas a monitorear las comunidades en línea.
Los moderadores son responsables de supervisar la actividad de millones de usuarios que intercambian ideas las 24 horas del día, los 7 días de la semana. La verificación manual de errores es abrumadora dado el número y la complejidad. Agregar aprendizaje automático a su equipo ayuda a reducir esta carga.
“Digamos que tienes un moderador en una plataforma de redes sociales que quiere saber si algo anda mal. Sería útil tener una herramienta como esta que brinde ayuda y exponga posibles errores, especialmente si están vinculados a propaganda y posible desinformación”, explicó Iliewski.
El factor de explicabilidad, o la capacidad de la IA para proporcionar una justificación de los errores que identifica, es lo que realmente “mejora la confianza y el uso del marco de la IA humana”, agregó.
Pero advierte que la IA explicable no es una herramienta en la que debamos confiar ciegamente.
“Pueden hacernos la vida más fácil, pero no son suficientes por sí solos”, señaló Ilievski.
Memes, misoginia y más
También se puede enseñar a la IA explicable a identificar memes que contienen elementos problemáticos, como el “humor negro”, que a veces es abiertamente discriminatorio y ofensivo para grupos específicos de personas o la sociedad en su conjunto.
Para este último proyecto, el equipo se centró en dos tipos específicos de contenido de memes dañinos: la misoginia y el discurso de odio.
Zhivar Sourati, un estudiante graduado de la USC que está trabajando con Ilievski en ambos proyectos, dice que la detección transparente de memes problemáticos es fundamental para la velocidad a la que la información se propaga por Internet.
“Es muy importante que los moderadores de contenido puedan detectar estos memes a tiempo, ya que se propagan por las redes sociales como Twitter o Facebook y llegan a una gran audiencia muy rápidamente”.
Sourati dice que, por naturaleza, los memes dependen de más aspectos de los que parece. Si bien los memes son conocidos por ser concisos (a veces solo contienen una imagen simple), a menudo reflejan referencias culturales que pueden ser difíciles de explicar.
“Tienes una imagen, y luego tal vez ni siquiera una oración, sino un fragmento de texto. Probablemente esté relacionado con un concepto o una película o algo que está en las noticias”, explicó Sourati. “Inmediatamente sabes que es divertido, pero es realmente difícil explicar por qué, incluso a los humanos, y eso también se aplica al aprendizaje automático”.
Este aspecto inexplicable de los memes hace que enseñar a las máquinas a aprender a clasificarlos sea aún más desafiante, ya que primero deben comprender las intenciones y el significado detrás de ellos.
Pasando a los detalles
El esquema que usaron Ilievski y Sourati se llama “razonamiento basado en casos”.
El razonamiento basado en casos es básicamente cómo las personas abordan un problema: aprendiendo de ejemplos anteriores y aplicando ese conocimiento a otros nuevos.
A la máquina se le muestran varios ejemplos de memes que son problemáticos, junto con la justificación. Luego, dice Sourati, la máquina es capaz de construir una biblioteca de ejemplos, de modo que cuando se le asigna la tarea de clasificar un nuevo meme que podría tener “algunas abstracciones de ejemplos anteriores”, puede “abordar un nuevo problema con todo el conocimiento que lleva consigo”. lejos.”
Por ejemplo, si se centraron específicamente en la misoginia, podrían preguntar: “¿Por qué este meme es misógino? ¿Es vergonzoso? ¿Es un estereotipo? ¿Muestra la cosificación de la mujer?”.
Usaron una interfaz explicativa para visualizar el razonamiento de los modelos y comprender por qué el modelo hace predicciones de la forma en que lo hace. Esta táctica de visualización ayudó a solucionar problemas y perfeccionar las habilidades del modelo.
“Uno de los beneficios es que podemos hacer un análisis de errores más fácil. Si nuestro modelo comete 20 errores de 100, podemos abrir esos 20 y observar el patrón de desviaciones del modelo en términos de diferentes datos demográficos de lo que se representa o el objeto específico señalado”, explicó Ilievski. “Tal vez cada vez que ve un helado, piensa que es misoginia”.
Humanos e inteligencia artificial: un dúo heroico
Al igual que la detección de errores lógicos, la clasificación de memes no puede ser completamente automática y requiere la cooperación humana con inteligencia artificial.
Dicho esto, los hallazgos de Ilievski y Sourati muestran un futuro prometedor para la capacidad de la IA para ayudar a las personas a detectar el discurso de odio y la misoginia en los memes.
La complejidad de comprender los memes, o el “elemento sorpresa”, como lo expresó Ilievski, hizo que trabajar en este tema fuera particularmente emocionante.
“Hay un elemento de dificultad que hace que el proceso sea muy interesante desde el punto de vista de la IA porque hay información en los memes”, dijo Ilievski.
“Hay dimensiones culturales y contextuales, y el creador del meme cree que es muy creativo y personal. Todo esto en conjunto hizo que trabajar en este proyecto fuera particularmente emocionante”, agregó.
El equipo de ISI ha puesto sus hallazgos y código a disposición de otros investigadores, con la esperanza de que el trabajo futuro continúe avanzando en la capacidad de la inteligencia artificial para ayudar a las personas en la lucha contra el contenido en línea peligroso y dañino.