La IA es defensora de nuestra propia inteligencia

Vie, 21/11/2025 - 17:06
Autor:

Dr. Augusto Ábrego Rodríguez Profesor de la Faeco

 

Vivimos en una encrucijada histórica fascinante. Hoy, un estudiante de biología, derecho o ingeniería puede sentarse frente a una pantalla y, en cuestión de segundos, obtener un marco teórico completo, una hipótesis estructurada o un resumen bibliográfico impecable gracias a la Inteligencia Artificial Generativa.

La tentación es inmensa: la eficiencia es seductora y el camino del menor esfuerzo siempre ha sido atractivo para la naturaleza humana. Sin embargo, ante la inminente integración de estas herramientas en la vida académica, regular su uso en la investigación científica no es un acto de censura, sino un acto de defensa de la mente humana.

A menudo se malinterpreta la regulación como un intento de “frenar el progreso”. Nada más lejos de la realidad. Establecer límites claros y éticos sobre cómo y cuándo usar la IA en trabajos universitarios es vital para proteger la esencia misma de la universidad: el desarrollo del pensamiento crítico.

Si permitimos que un algoritmo realice la parte más ardua de la investigación la conexión de ideas dispares, la formulación de preguntas difíciles, la estructuración lógica de un argumento, estamos externalizando nuestra capacidad de razonar. La investigación científica no se trata solo del resultado final o del “papel” entregado; se trata del proceso. Es en la lucha contra la página en blanco, en la frustración de no encontrar el dato correcto y en el momento “Eureka” tras horas de lectura, donde se forja el verdadero científico. Si saltamos ese proceso, obtenemos el título, pero perdemos el conocimiento.

Regular la IA en las aulas significa enseñar a los estudiantes a usarla como un copiloto, no como el piloto. Significa establecer normas donde la IA pueda usarse para procesar grandes volúmenes de datos o para corregir estilo, pero jamás para sustituir la voz y la inferencia del autor. La motivación para aceptar estas reglas debe nacer del orgullo propio: ¿queremos ser meros operadores de máquinas o queremos ser los arquitectos del futuro?

Además, la ciencia se basa en la verdad verificable, mientras que la IA se basa en la probabilidad estadística. Sin una regulación que exija transparencia y verificación humana rigurosa, corremos el riesgo de contaminar el ecosistema académico con alucinaciones digitales y datos sesgados.

El hoy llamado para las universidades y los estudiantes no es hacia apagar las computadoras, sino a encender los cerebros con más fuerza que nunca. La regulación es nuestra brújula. Nos asegura que, al final del día, cuando presentemos ese trabajo de investigación, podamos mirar a los ojos a nuestro evaluador y decir: “Esta tecnología me ayudó, pero las ideas, el criterio y el descubrimiento son míos “.

El mundo del futuro no necesitará humanos que sepan presionar un botón para obtener respuestas; ya tenemos máquinas para eso. El mundo necesita humanos capaces de hacer las preguntas correctas, de discernir la verdad y de aportar esa chispa de creatividad ética que ningún código puede replicar. Regular la IA es, en última instancia, garantizar que la ciencia siga siendo una aventura profundamente humana.