Frederik Efferenn, Instituto Alexander von Humboldt para Internet y Gesellschaft
Los modelos de lenguaje grande (LLM), como los que usa el chatbot ChatGPT, tienen el poder de revolucionar el sistema científico. Esa es la conclusión del estudio Delphi del Instituto Alexander von Humboldt para Internet y la Sociedad (HIIG), una encuesta exhaustiva de 72 expertos internacionales especializados en investigación de inteligencia artificial y digitalización.
Los encuestados enfatizan que los efectos positivos para la práctica científica superan claramente a los negativos. Al mismo tiempo, enfatizan la tarea urgente de la ciencia y la política, que es combatir activamente la posible desinformación del LLM para mantener la credibilidad de la investigación científica. Por lo tanto, piden una regulación proactiva, transparencia y nuevos estándares éticos para el uso de la IA generativa.
Estudio “¿Amigo o enemigo? Desentrañando las implicaciones de los grandes modelos de lenguaje en el sistema científico” ahora está disponible en forma de preimpresión en arXiv servidor.
Según los expertos, los efectos positivos son más visibles en la esfera textual del trabajo científico. En el futuro, los grandes modelos de lenguaje aumentarán la eficiencia de los procesos de investigación al automatizar varias tareas relacionadas con la redacción y publicación de artículos. También pueden aliviar a los investigadores de los crecientes procedimientos administrativos de presentación de informes y propuestas de investigación que han aumentado significativamente en los últimos años.
Como resultado, crean tiempo adicional para el pensamiento crítico y abren oportunidades para nuevas innovaciones, ya que los investigadores pueden reenfocarse en el contenido de su investigación y comunicarlo de manera efectiva a una audiencia más amplia.
Si bien reconoce los beneficios innegables, el estudio destaca la importancia de abordar las posibles consecuencias negativas. Según los encuestados, los LLM pueden generar afirmaciones científicas falsas que, a primera vista, son indistinguibles de los resultados reales de la investigación. Esta desinformación puede difundirse en los debates públicos e influir en las decisiones políticas con un impacto negativo en la sociedad. Del mismo modo, los datos de entrenamiento defectuosos de modelos de lenguaje extenso pueden incorporar varios estereotipos racistas y discriminatorios en los textos producidos.
Estos errores pueden infiltrarse en los debates académicos si los investigadores incorporan contenido generado por LLM en su trabajo diario sin una verificación exhaustiva.
Para enfrentar estos desafíos, los científicos necesitan adquirir nuevas habilidades. Estos incluyen la capacidad de contextualizar críticamente los resultados de LLM. En un momento en que la desinformación de los grandes modelos lingüísticos va en aumento, los investigadores deben utilizar su conocimiento, autoridad y reputación para promover un discurso público objetivo. Abogan por endurecer las regulaciones legales, aumentar la transparencia de los datos de entrenamiento y cultivar prácticas responsables y éticas en el uso de la IA generativa en el sistema científico.
El Dr. Benedikt Fecher, investigador principal de la encuesta, comenta: “Los resultados demuestran el potencial transformador de los grandes modelos de lenguaje en la investigación. Aunque sus enormes beneficios superan a los riesgos, las opiniones de expertos en el campo de la inteligencia artificial y la digitalización muestran la importancia de abordar los desafíos de la desinformación y la pérdida de confianza en la ciencia de manera concreta. Si usamos LLM de manera responsable y seguimos pautas éticas, podemos usarlos para maximizar el impacto positivo y minimizar el daño potencial”.
Más información:
Benedikt Fecher y otros, ¿amigo o enemigo? Investigar las implicaciones de los grandes modelos de lenguaje en un sistema científico. arXiv (2023). DOI: 10.48550/arxiv.2306.09928
Proporcionado por el Alexander von Humboldt Institut für Internet und Gesellschaft