Abdiel Rodríguez Reyes /Profesor de Filosofía de la Universidad de Panamá
El ChatGPT es un modelo de Inteligencia artificial (IA) desarrollado por OpeanAI, empresa cofundada por Elon Musk. La cual responde a preguntas y dialoga con humanos. Dando respuestas relativamente bien articuladas, pero no necesariamente acabadas ni veraces en todos los casos. Cuando no accede a información, responde que no tiene “opiniones políticas ni preferencias … [que su] función es proporcionar información objetiva y neutral”.
Sometí una respuesta dada por ChatGPT a un software para detectar similitud y me arrojó 0%. Muchas personas y en particular trabajadores de la educación se alarmaron puesto que algunos estudiantes hacen sus tareas usando ChatGPT. Este programa conversacional funciona de forma sencilla, el usuario realiza una pregunta y la IA hace un extractivismo en millones de datos para brindar una respuesta y seguir un diálogo. Yo la usaría de forma responsable para que los estudiantes hagan preguntas y problematicen esas respuestas. Como dice el pedagogo crítico Luis Bonilla, “ChatGPT es solo tecnología desprovista de la condición ética humana y así la debemos entender”.
Para la realización de este artículo, abrí una cuenta de ChatGPT, le pregunté si es ético usarla. Me respondió que sí, siempre y cuando sea de “manera responsable y respetuosa”, estos valores solo pueden ser atribuidos a un ser humano y no a una IA. Además, remarcó que “no tiene emociones ni conciencia propia”. El filósofo estadounidense Leslie Stevenson estudió las emociones como un asunto centralmente ético. Es decir, la IA está desprovista de lo que es propio a los seres humanos. El problema de la IA no es nuevo y está con nosotros hace décadas para quedarse. Como dicen Henry Kissinger, Eric Schmidt y Daniel Huttnlocher en un artículo en The Wall Street Journal, “La inteligencia artificial generativa presenta un desafío filosófico y práctico a una escala que no se ha experimentado desde el comienzo de la Ilustración”. Es precisamente un desafió filosófico porque amerita pensarse en su complejidad.
Porque no hay que rechazarlo a priori, pero tampoco usarlo inocentemente. Tenemos que preguntarnos ¿qué nos aporta? Nos dicen estos mismos autores, uno fue secretario de Estado, otro CEO de Google, y el último, decano en el MIT que,si bien esta IA extrae información de millones de archivos, libros y artículos científicos, no podrá ayudarnos a comprender los problemas. Noam Chomsky, Ian Roberts y Jeffrey Watumull culminaron su artículo en The New York Times con la siguiente sentencia: “Dada la amoralidad, la ciencia falsa y la incompetencia lingüística de estos sistemas, solo podemos reírnos o llorar por su popularidad”. También, en este mismo diario, Paul Krugman, se preocupaba por la suplantación de trabajadores del conocimiento por este tipo de IA. En última instancia, nuestra preocupación es Ética con respecto al uso irresponsable teniendo en cuenta su amoralidad.