
La humanidad se encuentra en el umbral de una era de profunda transformación, donde la superinteligencia digital (AGIS) pareciera estar al alcance de la mano. Sam Altman, cofundador y CEO de OpenAI, no duda en afirmar en su más reciente publicación de su blog personal “The Gentle Singularity” que «estamos más allá del horizonte de eventos; el despegue ha comenzado«. Esta afirmación, lejos de ser una fantasía futurista, se asienta en la realidad de sistemas que ya superan las capacidades humanas en múltiples aspectos, amplificando la productividad de quienes los utilizan.
Este progreso promete un futuro radicalmente mejor que el presente, impulsado por una aceleración sin precedentes en la ciencia y un aumento masivo de la productividad. En este 2025 ya hemos visto la llegada de agentes capaces de realizar trabajo cognitivo real, transformando tareas como la escritura de código o la automatización de tareas de backoffice administrativo.
*Altman proyecta que para 2026 podrían surgir sistemas capaces de descubrir conocimientos novedosos, y en 2027, robots que realicen tareas en el mundo real. Según su mirada, la abundancia de inteligencia y energía para la década de 2030, históricamente los limitantes fundamentales del progreso humano, nos permitirían teóricamente alcanzar cualquier cosa con una buena gobernanza. Las maravillas se volverán cotidianas; lo asombroso de hoy, como un párrafo bien escrito por IA, se convertirá en la expectativa de una novela completa o el desarrollo de nuevos tratamientos medicinales que curen todas las enfermedades conocidas.
Sin embargo, esta vertiginosa aceleración tecnológica trae consigo una serie de riesgos inherentes que, si no se abordan con conciencia y proactividad, podrían socavar los mismos cimientos de la sociedad. Altman mismo reconoce que, si bien una pequeña nueva capacidad de IA puede generar un impacto positivo enorme, «una pequeña desalineación multiplicada por cientos de millones de personas puede causar un gran impacto negativo«. Este es el corazón de la paradoja que enfrentamos: cómo cosechar los inmensos beneficios de la IA sin sucumbir a sus peligros latentes.
Uno de los riesgos más acuciantes es la proliferación de la falsificación en todas sus formas. Altman advierte sobre la posibilidad de «que las máquinas inunden nuestros canales de información con propaganda y falsedad«. La capacidad de la inteligencia artificial generativa para crear deepfakes —contenidos audiovisuales falsificados con sorprendente exactitud— plantea un serio desafío a nuestra percepción de la realidad. Imágenes, videos o audios manipulados pueden arruinar reputaciones individuales, socavar la confianza en las empresas y, en el ámbito político, distorsionar la opinión pública e incluso influir en elecciones. La facilidad con la que se puede generar y distribuir contenido falso, especialmente en un mundo donde la gente ha perdido la energía para validar las fuentes, erosiona la confianza colectiva en los medios y las instituciones, debilitando el tejido social. La exposición constante a la desinformación puede llevar a un cinismo generalizado y a una fragmentación social.
Otro desafío crítico es el impacto en el mercado laboral. Altman menciona que «habrá partes muy difíciles como la desaparición de clases enteras de empleos«. Aunque la historia muestra que la humanidad se adapta, y que se crearán nuevos empleos, la magnitud de esta transformación es innegable. La automatización no es un fenómeno nuevo, pero la IA acelera este proceso, afectando principalmente a puestos de ingresos medios, de producción y administrativos. Si bien se estima que la automatización desplazará millones de empleos, el mismo número o más podrían ser creados, pero estos serán nuevos, diferentes. Esto exige una reconversión masiva de la fuerza laboral y una preparación de las nuevas generaciones para roles que demandarán habilidades distintas, como el pensamiento crítico, la inteligencia emocional y la flexibilidad. Las empresas que no inviertan en la capacitación de sus empleados en IA y diseño de procesos se encontrarán en desventaja.
La dependencia tecnológica es quizás el riesgo más sutil y preocupante. Altman mismo lo experimentó cuando OpenAI tuvo una caída: «Cuando más lo necesitamos, no estaba (…) me había olvidado cómo era hacerlo. Y realmente me hizo pensar, vamos a ser dependientes de estos sistemas, cada vez más y más«. Esta delegación de tareas y procesos a sistemas automáticos, si no se gestiona conscientemente, puede llevar a una atrofia de habilidades humanas esenciales. Cuando se confía ciegamente en la IA para responder preguntas, generar textos o resolver problemas, se corre el riesgo de perder la capacidad de investigar, sintetizar, analizar y pensar de manera autónoma. Esto se ha descrito como una «podredumbre cerebral» (brain rot), donde el consumo excesivo de contenido trivial o la dependencia tecnológica en tareas cognitivas básicas, puede conducir a un deterioro de las funciones cognitivas esenciales, como la concentración y la reflexión profunda. Optar por el menor esfuerzo que ofrece la IA sin un compromiso activo, en lugar del esfuerzo intelectual, puede limitar seriamente el crecimiento profesional y personal.
La sociedad también debe enfrentar los sesgos inherentes en los modelos de IA. Altman señala la necesidad de «resolver el problema de alineación, lo que significa que podemos garantizar de manera robusta que los sistemas de IA aprendan y actúen hacia lo que colectivamente realmente queremos a largo plazo«. Un ejemplo claro de desalineación son los feeds de redes sociales, que explotan preferencias a corto plazo sobre las de largo plazo.
Si los datos con los que se entrena la IA contienen sesgos o prejuicios, la IA los replicará y amplificará. Esto puede llevar a decisiones discriminatorias en áreas críticas como la contratación o la aprobación de préstamos, si los algoritmos no son cuidadosamente diseñados y auditados para promover la equidad e inclusión. La irrupción de modelos como DeepSeek, que logró un alto desempeño con muchos menos recursos que sus competidores, generó una nueva rivalidad tecnológica y forzó a gigantes como OpenAI a reducir precios, demostrando la volatilidad del sector. Sin embargo, DeepSeek también ha sido «adoctrinado» con sesgos propios del gobierno chino, lo que subraya la importancia de la supervisión humana en usos críticos para evitar costos morales, éticos, monetarios o legales.
Frente a estos desafíos, el optimismo de Altman se mantiene firme, pero anclado en la acción y la colaboración. Sin duda todos confiamos en la capacidad humana de adaptación. La historia, según él, demuestra que «encontraremos nuevas cosas que hacer y nuevas cosas que desear, y asimilaremos rápidamente nuevas herramientas«. La clave reside en cómo la sociedad decide gestionar esta transición. Es fundamental distribuir ampliamente el acceso a la superinteligencia dadas sus implicaciones económicas, y asegurar que sea barata, ampliamente disponible, y no demasiado concentrada en una persona, empresa o país.
Para navegar esta era con éxito, es imperativo adoptar un enfoque de adopción consciente de la tecnología. Esto significa evaluar deliberadamente el impacto de cada nueva herramienta, preguntándose si realmente aporta valor y si fortalece nuestras capacidades humanas en lugar de debilitarlas. No se trata de resistir el progreso, sino de ser selectivos y críticos, priorizando la salud mental y las relaciones personales sobre la mera conveniencia. Es esencial limitar el uso pasivo de la tecnología y reservar momentos para la desconexión programada, fomentando el aprendizaje continuo y desafiando el uso de nuestras habilidades para evitar la delegación ciega de procesos creativos y analíticos.
El desarrollo continuo de habilidades humanas es nuestra mayor ventaja competitiva. Mientras las máquinas asumen tareas repetitivas, la creatividad, la empatía, el pensamiento crítico y la capacidad para resolver problemas complejos seguirán siendo insustituibles. La empatía nos permite construir relaciones sólidas y entender los matices emocionales que ningún algoritmo puede replicar. La comunicación efectiva, que va más allá de las palabras e incluye el tono y el lenguaje corporal, es esencial para conectar con otros y liderar con humanidad. La creatividad, motor de la innovación, no puede ser completamente replicada por máquinas, ya que surge de la experiencia personal, las emociones y una perspectiva única del mundo. Fomentar estas habilidades a través de la auto-reflexión, la formación continua, la mentoría y la práctica consistente es crucial.
El pensamiento crítico y analítico, la capacidad de descomponer información compleja y de cuestionar las fuentes, se vuelve más vital que nunca en un entorno saturado de datos. En lugar de aceptar ciegamente la información generada por la IA, es obligatorio verificarla, contrastar fuentes y analizar la coherencia. Los modelos de lenguaje, al basarse en datos históricos, tienen limitaciones para prever cisnes negros o eventos impredecibles, lo que subraya la insustituibilidad del juicio humano y la intuición. Como Altman señala, «la sociedad es resiliente, creativa y se adapta rápidamente«. Si podemos aprovechar la voluntad y sabiduría colectiva, maximizaremos los beneficios y minimizaremos los riesgos, dando a las personas mucha libertad dentro de límites amplios que la sociedad debe definir.
En última instancia, el futuro de la IA y su impacto en la humanidad no es un destino predeterminado, sino una construcción colectiva. Este es el llamado a una adopción inteligente y ética. La clave no está en prohibir o condicionar el uso de la IA, sino en aprender a convivir con ella de manera inteligente y ética. Al comprometernos con el desarrollo de nuestras habilidades humanas, cultivando la curiosidad, el pensamiento crítico y la adaptabilidad, podemos asegurarnos de que la tecnología sea una herramienta al servicio de nuestra evolución, no un sustituto de nuestra esencia. El verdadero progreso se medirá en cómo estos avances enriquecen la experiencia humana y no solo en términos de eficiencia.
Podemos escalar de manera fluida, exponencial y sin incidentes a través de la superinteligencia, solo si lo hacemos con conciencia y propósito.
Más historias
La empresa de tecnología Globant echó a 1.000 empleados
Las empresas internacionales revisan a la baja sus proyecciones de crecimiento para este año
La adopción de la Inteligencia Artificial entre las empresas haría crecer 15% el PBI mundial en los próximos 10 años