Omar A. Joseph S.
La Inteligencia Artificial (IA) ha emergido como una de las tecnologías más transformadoras del siglo XXI, prometiendo revolucionar la industria, optimizar procesos y mejorar la calidad de vida. Sin embargo, surgen preocupaciones sobre sus posibles usos negativos. Diversos autores han planteado escenarios en los que la IA podría convertirse en una fuerza disruptiva, no solo en términos técnicos, sino también éticos y sociales.
El filósofo Nick Bostrom, en su obra Superinteligencia: caminos, peligros y estrategias (2014), advierte sobre los riesgos de una IA avanzada que supera la inteligencia humana. Bostrom argumenta que, si no se controla adecuadamente, la IA superinteligente podría actuar en formas que no están alineadas con los valores humanos, lo que podría llevar a consecuencias catastróficas. “La IA no tiene que ser malévola para representar una amenaza existencial”. Incluso, una IA diseñada con buenas intenciones podría tomar sediciones desastrosas si sus objetivos no están perfectamente alineados con los nuestros.
Además de los riesgos existenciales, la IA también plantea desafíos más inmediatos en términos de privacidad y control. Shoshana Zuboff, en The Age of Surveillace Capitallism (2019), explora cómo las empresas tecnológicas utilizan la IA para recopilar y analizar grandes cantidades de datos personales, creando un sistema de vigilancia masiva.
Zuboff argumenta que este “capitalismo de vigilancia” no solo erosiona la privacidad, también manipula el comportamiento humano, reduciendo a las personas a meros productores de datos. “La IA se convierte en un instrumento de poder que redefine la autonomía individual y la libertad”, señala Zuboff, alertando sobre la pérdida de la esencia humana en un mundo dominado por algoritmos.
Por otro lado, algunos autores han planteado que la IA podría “arruinar” el hacer del ser humano al reemplazar actividades que tradicionalmente han sido fuente de significado de realización personal.
El filósofo surcoreano Byung-Shul Han, en su obra La sociedad del cansancio (2010), reflexiona sobre cómo la automatización de la IA podría llevar a una sociedad en la que el trabajo humano pierda su valor intrínseco.
Sostiene que, al delegar tareas creativas y cognitivas a las máquinas, corremos el riesgo de deshumanizarnos: “La IA no solo reemplaza al trabajo manual, también amenaza con vaciar de sentido las actividades que nos hacen humanos”, afirma Han. Sugiere que la dependencia excesiva de la tecnología podría erosionar nuestra capacidad para encontrar propósito en lo que hacemos.
Sin embargo, no todos los autores son pesimistas. Algunos, como el historiador Yuval Noah Harari, en 21 lessons for the 21st century (2018), reconoce los riesgos de la IA, pero también ve oportunidades para su uso positivo. Argumenta que la IA podría liberar a la humanidad de tareas respectivas y peligrosas, permitiéndole enfocarse en actividades más significativas. Sin embargo, advierte que esto solo será posible si se establecen regulaciones éticas y se garantiza que la tecnología esté al servicio de todos, no solo de una élite. “La IA no tiene que ser una amenaza, pero su impacto dependerá de cómo decidamos usarla” escribe Harari, subrayando la importancia de la responsabilidad humana en la configuración del futuro tecnológico.
En conclusión, la IA es una herramienta poderosa que puede tanto mejorar como socavar la condición humana. La advertencia de autores como Bostrom, Zuboff y Han, nos recuerdan que, si bien la tecnología tiene el potencial de trasformar positivamente nuestras vidas, también conlleva riesgos significativos que no podemos ignorar. La clave, como sugiere Harari, radica en cómo decidimos gestionar y regular su desarrollo. En última instancia, el futuro de la IA no está predeterminado; es una elección que debemos hacer como sociedad, equilibrando la innovación con la preservación de lo que nos hace esencialmente humanos.