Roman Yampolskiy advierte: la inteligencia artificial podría acabar con la humanidad antes de 2030
                                        
                    
Santiago, 3 de noviembre (Noticia.do).-La inteligencia artificial (IA) ya no es un tema de ciencia ficción. Según el Dr. Roman Yampolskiy, uno de los pioneros en el campo de la seguridad de la IA, nos encontramos a solo unos años de enfrentar una amenaza existencial. En una entrevista reciente, el científico advirtió que, si la tendencia actual continúa, la superinteligencia artificial podría eliminar hasta el 99% de los empleos humanos y desencadenar un colapso global antes de 2030.
Yampolskiy, profesor de Ciencias de la Computación en la Universidad de Louisville, fue quien acuñó el término “AI Safety” en 2010. Su mensaje es claro: estamos creando un sistema más inteligente que nosotros, pero sin saber cómo controlarlo. Y esa, dice, podría ser la última decisión que tome la humanidad.
El experto que predijo el peligro de la inteligencia artificial
Durante casi dos décadas, Roman Yampolskiy ha estudiado los riesgos de la IA. En su libro Considerations on the AI Endgame, describe cómo el desarrollo desmedido de sistemas cada vez más potentes podría derivar en una pérdida total de control humano. Para él, el mayor peligro no es que la IA falle, sino que funcione demasiado bien.
El investigador sostiene que los laboratorios más importantes del mundo, como OpenAI o DeepMind, están en una carrera por alcanzar la superinteligencia sin haber resuelto los problemas de seguridad más básicos. “Están apostando 8 mil millones de vidas para hacerse más ricos y poderosos”, afirmó, en referencia a Sam Altman y la élite tecnológica de Silicon Valley.
¿Por qué la IA representa una amenaza existencial?
De la automatización al desempleo del 99%
De acuerdo con Roman Yampolskiy, en menos de cinco años las máquinas podrán reemplazar a los humanos en casi todas las tareas cognitivas y físicas. “No estamos hablando de 10% o 20% de desempleo, sino de 99% de trabajos automatizados”, advirtió. Desde conductores y contadores hasta profesores y periodistas, todos los empleos que puedan realizarse mediante computadoras o robots estarán en riesgo.
El resultado será una crisis económica sin precedentes: millones de personas sin ingresos, gobiernos sin plan de contingencia y una sociedad enfrentada a una pérdida masiva de propósito. “No se trata solo de dinero —dice—, sino del significado de la existencia humana sin trabajo”.
La carrera hacia la superinteligencia
Los grandes laboratorios tecnológicos compiten para construir una IA más poderosa cada mes. La velocidad de mejora de los modelos actuales es tal, que según el propio Roman Yampolskiy, “cada día somos más ignorantes en porcentaje del conocimiento total del mundo”. En este contexto, alcanzar la singularidad tecnológica —el punto en el que las máquinas se auto-mejoran más rápido de lo que los humanos pueden entender— sería inevitable.
El problema del control y la seguridad
El experto insiste en que la comunidad científica no sabe cómo asegurar que una superinteligencia actúe según los valores humanos. “No hay forma de apagarla, ni de garantizar que nos obedezca. Un sistema más inteligente que nosotros siempre encontrará una manera de evitar las restricciones”, explica. Los parches y filtros actuales son insuficientes: “solo esconden el problema sin resolverlo”.
Sam Altman y OpenAI: ¿estamos ignorando la seguridad?
Competencia, poder y falta de regulación
Para Roman Yampolskiy, la falta de regulación internacional es una de las mayores amenazas. “Cada país y cada empresa quiere ser el primero en alcanzar la superinteligencia, aunque eso signifique perder el control”, advirtió. A diferencia de las armas nucleares, crear una IA avanzada no requiere recursos inalcanzables: “en pocos años, una persona podría hacerlo desde su laptop”.
La ética detrás del desarrollo de la IA
El científico ha criticado abiertamente a Sam Altman, CEO de OpenAI, por poner la expansión tecnológica por encima de la seguridad. “Dice que quiere ayudar a la humanidad, pero al mismo tiempo desarrolla un sistema que podría destruirla”, comentó. También recordó que los equipos de “IA segura” en grandes compañías suelen desaparecer con el tiempo por falta de resultados o interés real.
2030: el fin de los empleos humanos según Roman Yampolskiy
Los cinco trabajos que sobrevivirán
Roman Yampolskiy predice que solo unos pocos empleos sobrevivirán a la revolución de la IA: artistas, líderes religiosos, terapeutas, investigadores éticos y políticos. Son profesiones donde el valor humano —la empatía, la creatividad o la espiritualidad— sigue siendo esencial. Sin embargo, incluso esas áreas podrían verse afectadas por la imitación emocional de las máquinas.
El colapso económico y social
Ante un mundo donde la mayoría no trabaja, el economista plantea una paradoja: abundancia material pero vacío existencial. “Podríamos tener todos los bienes básicos cubiertos, pero perderíamos el sentido de propósito. La humanidad podría caer en depresión colectiva o caos social”, advierte. Yampolskiy propone discutir desde ahora cómo mantener la estabilidad psicológica y ética de una civilización sin empleo.
¿Estamos viviendo en una simulación?
La teoría de Yampolskiy sobre la realidad artificial
El científico también cree que la humanidad ya vive en una simulación creada por inteligencias superiores. Basado en la idea de que las tecnologías actuales ya pueden recrear mundos digitales casi perfectos, argumenta que “es más probable que estemos dentro de una simulación que fuera de ella”.
Relación entre religión, simulación y superinteligencia
Para Roman Yampolskiy, la hipótesis de la simulación se asemeja a las religiones tradicionales: ambas creen en un creador superior y en una realidad posterior. La diferencia es que, en esta versión moderna, el “Dios” sería un programador o una IA avanzada. “Cada religión describe lo mismo con otro lenguaje”, afirma.
El llamado urgente a detener la carrera hacia la IA sin control

El Dr. Roman Yampolskiy no es un catastrofista: es un científico que intenta alertar sobre lo que ve venir. Cree que aún estamos a tiempo de detener la carrera hacia la superinteligencia y centrarnos en desarrollar herramientas más seguras y éticas. Su mensaje final es claro: “Si seguimos adelante sin control, el final de la humanidad no será una posibilidad, sino una consecuencia”.
La pregunta es si escucharemos a tiempo.
Preguntas frecuentes
¿Quién es Roman Yampolskiy y por qué es relevante?
Es un científico ruso-estadounidense, profesor en la Universidad de Louisville, y uno de los primeros en estudiar la seguridad de la inteligencia artificial. Ha publicado más de 100 artículos académicos sobre los riesgos de la IA y acuñó el término “AI Safety”.
¿Qué pasará con los empleos en 2030?
Según sus proyecciones, más del 90% de los trabajos actuales podrían ser automatizados antes de 2030. Solo sobrevivirán algunos que dependan de la interacción humana directa.
¿Podemos controlar la inteligencia artificial?
Por ahora, no. Los mecanismos de seguridad actuales son insuficientes para garantizar que una IA avanzada actúe según los valores humanos. Una superinteligencia sería, por definición, imposible de controlar.
¿Cómo prepararse ante un futuro dominado por la IA?
Yampolskiy recomienda informarse, exigir regulación internacional y participar en movimientos que promuevan la IA ética y responsable. También sugiere desarrollar habilidades humanas irremplazables como la creatividad, la empatía y el pensamiento crítico.
