El motor de búsqueda de ChatGPT ha recibido reacciones que van desde un gran entusiasmo hasta una profunda preocupación. En DTU, el profesor Brit Ross Winthereik nos alienta a tener la mente abierta y ser analíticos sobre las nuevas tecnologías para evaluar cómo se pueden usar de manera responsable.
¿Por qué crees que la gente reacciona con tanta fuerza a ChatGPT?
Creo que una de las razones es que ChatGPT interactúa con nosotros de una manera diferente a los motores de búsqueda que conocemos, personalizando sus respuestas en oraciones impecables que podrían confundirse con razonamientos.
Algunos lo consideran controvertido porque utiliza datos que pueden estar disponibles gratuitamente en Internet, pero no tiene la intención de generar ganancias para las corporaciones. La empresa detrás de ChatGPT rompió el contrato social al usar algo del dominio público para su propio beneficio.
Al mismo tiempo, los datos de los usuarios se recopilan de una manera diferente a los motores de búsqueda que conocemos, porque como algo nuevo le das algo en forma de apego a las ideas o pensamientos que compartes precisamente por la forma en que ChatGPT interactúa contigo. .
Tampoco sabemos si está diseñado para influir en el usuario de ciertas maneras, por ejemplo, si tiende a ser racista y misógino como muchos otros sistemas de software basados en aprendizaje automático porque magnifican los elementos dominantes de los datos que están entrenados. en.
En lugar de centrarnos ciegamente en productos individuales, nos alienta a exigir una tecnología responsable en general. Pero, ¿cómo se define “tecnología responsable”?
Que una tecnología sea responsable depende enteramente de la interacción entre para qué está hecha y cómo se usa. ¿Cumple con los objetivos asumidos o funciona de manera completamente diferente en la práctica?
Un fabricante puede esforzarse por crear tecnología responsable, pero una tecnología no puede etiquetarse unilateralmente como “responsable” o “irresponsable”. Esto hace que sea muy importante monitorear cuidadosamente los efectos específicos, por ejemplo, descubrimos si las tecnologías tienen consecuencias inapropiadas a pesar de las buenas intenciones.
¿Cómo evaluar si la tecnología es responsable?
El primer paso es describir la tecnología en su contexto. ¿Cómo es parte de un contexto más amplio de infraestructura, modelos comerciales y conjuntos de valores culturales? Sería irresponsable decir: “Oh, ahora hay una tecnología que va a revolucionar el mundo, así que mejor respondamos”, y luego apresurarnos a usarla o prohibirla sin más investigación.
El segundo paso es el análisis de impacto: ¿qué está sucediendo en la práctica? ¿La tecnología está a la altura de sus promesas? Si no, ¿qué más hace? ¿Y qué requisitos se deben cumplir para que sea una buena tecnología?
El tercer paso es experimentar con la tecnología. ¿Cuál es el límite de sus posibilidades? ¿Excluye a alguien o algo?
También es importante evaluar si los valores que representa la tecnología se alinean con los de la organización, escuela, sector o país. De lo contrario, puede decir que no y optar por no promocionarlo o imponer restricciones estrictas sobre su uso.
Cuando se trata de infraestructura digital pública, que es mi área de investigación, se trata de garantizar que la tecnología respalde la sociedad que queremos.
¿Tecnología responsable es igual a tecnología esencial?
Podemos obtener fácilmente todo tipo de tecnología para que haga cosas por nosotros, pero ¿adónde queremos ir como humanos? ¿Qué nos gustaría entrenar? Estos son los tipos de preguntas que también debemos hacernos en el contexto del que formamos parte para determinar si la adopción de una tecnología en particular es necesaria y beneficiosa.
Como alguien escribió en la revista danesa Gymnasieskolen de la escuela secundaria, no se toma una carretilla elevadora para ir al gimnasio a levantar pesas. Tú mismo levantas pesas porque quieres desarrollar tus músculos. No creía que los chatbots facilitaran el aprendizaje, por lo que sería una tontería usarlos en las escuelas.
Desde entonces, el debate se ha vuelto más parejo, ya que varios lugares han decidido permitir el uso de ChatGBT en clase y para la entrega de tareas. En mi opinión, un enfoque responsable de los chatbots es trazar un límite de arriba hacia abajo con respecto a su uso y luego recopilar sistemáticamente la experiencia a través del diálogo con profesores, profesores y estudiantes.
También sería una buena idea difundir los conceptos básicos de la tecnología enseñando que cada tecnología tiene preferencias, valores, estándares, reglas e historia incorporados.
¿Es necesaria la regulación para garantizar el uso responsable de la tecnología?
No puedo pensar en tecnologías a nivel de infraestructura o social que no estén reguladas. Cuando hablamos de tecnologías digitales, el derecho a la privacidad es algo que debe ser y está regulado.
Big Tech ha demostrado ser extremadamente difícil de regular, ya que proporciona servicios de forma gratuita a cambio de datos. Este es su modelo de negocio. La UE está tratando de controlar esto con el RGPD y otras leyes. Desafortunadamente, la legislación siempre parece no estar a la altura de la realidad, pero tal vez esa sea su naturaleza.
Estoy a favor de más investigación sobre las interacciones entre humanos y sistemas automatizados para permitirnos tomar mejores decisiones a nivel social. Es importante que nuestras instituciones democráticas y nuestra confianza en las autoridades no se vean socavadas porque creemos que algo es inteligente desde el principio. Necesitamos examinar cuidadosamente las implicaciones prácticas.