En una entrevista reciente en el podcast Verdict with Ted Cruz, el empresario tecnológico Elon Musk volvió a encender el debate sobre los alcances de la inteligencia artificial (IA) y sus implicancias para el futuro de la humanidad. Durante la conversación, Musk aseguró que en un plazo aproximado de diez años, la IA será más inteligente que cualquier ser humano, anticipando una transformación estructural sin precedentes en todos los aspectos de la sociedad.
Según Musk, esta evolución tecnológica conllevará la proliferación de miles de millones de robots humanoides, diseñados para realizar tareas y ofrecer servicios a un costo casi nulo. A su juicio, esto provocará que los bienes y servicios se vuelvan prácticamente gratuitos, lo que elevaría el nivel de vida global. No obstante, el magnate también advirtió sobre el impacto que esta automatización masiva tendrá sobre el empleo humano, señalando que millones de personas podrían verse desplazadas de sus funciones laborales tradicionales.
Uno de los puntos más controversiales de la entrevista fue su afirmación de que entre un 10% y un 20% de probabilidad existe de que la IA represente una amenaza existencial para la humanidad, similar a escenarios ficticios como el de Skynet. A pesar de ello, Musk se mostró moderadamente optimista, considerando que hay entre un 80% y 90% de probabilidad de que, si se toman las decisiones correctas, se logre un futuro de prosperidad compartida.
Estas declaraciones no solo alimentan el debate público, sino que invitan a la comunidad científica, política y académica a reflexionar críticamente sobre las condiciones éticas, regulatorias y filosóficas que deberían guiar el desarrollo de tecnologías inteligentes. ¿Cómo garantizar que el progreso no se traduzca en desigualdad estructural o pérdida de sentido existencial? ¿Qué papel deben jugar los Estados y las instituciones en la creación de marcos normativos internacionales?
Comentarios recientes