La inteligencia artificial (IA) ha experimentado un crecimiento acelerado e impactante en la sociedad. En tan sólo unos pocos años, ha pasado de ser una posibilidad futurista a formar parte de la vida cotidiana de gran parte de la población. Entre los muchos debates que han surgido con su implementación, vuelve a abrirse la discusión sobre un temor recurrente en la ciencia ficción: la posibilidad de que la IA se vuelva una amenaza para la humanidad o actúe de manera maliciosa.
Un estudio reciente, publicado por la Universidad de Fudan en China, ha generado titulares alarmistas a nivel mundial. De acuerdo con el reporte de los investigadores, se realizaron pruebas con dos modelos IA de procesamiento de lenguaje para evaluar su capacidad de autorreplicarse ante posibles fallos. Lo sorprendente fue que ambos sistemas lograron replicarse sin intervención humana en más de la mitad de las pruebas realizadas.
La principal preocupación de los investigadores radica en que este comportamiento no era esperado. En teoría, una IA no debería ser capaz de autoduplicarse o repararse de manera autónoma, ya que esto podría llevar a una pérdida de control humano sobre la tecnología. Durante los experimentos, los modelos de IA fueron capaces de superar problemas como archivos faltantes o errores de software, logrando repararse y duplicarse por sí mismos, lo que ha encendido las alarmas en la comunidad científica.
No obstante, al tratarse de un único estudio, los resultados no pueden considerarse concluyentes. Sin embargo, los investigadores han hecho un llamado urgente para la creación de normativas internacionales que regulen el desarrollo y uso de la IA, con el fin de establecer salvaguardas de seguridad eficaces antes de que la tecnología avance más allá del control humano.
Enlaces de referencia:
- https://www.tabascohoy.com/alerta-roja-ia-se-clona-sin-control-humano/
- https://as.com/meristation/betech/alerta-entre-los-expertos-en-inteligencia-artificial-por-el-espeluznante-hecho-que-ha-conseguido-la-ia-sin-ayuda-humana-n/
- https://www.jornada.com.mx/noticia/2025/01/28/economia/la-inteligencia-artificial-cruza-201climite-peligroso201d-al-aprender-a-replicarse-sin-ayuda-humana-4625
- https://www.elconfidencial.com/tecnologia/novaceno/2025-01-28/cientificos-inteligencia-artificial-autoreproduccion-peligro_4051976/