Noticias de Ultima Hora

junio 16, 2025

La IA toma por sorpresa a internet: humor, desinformación y el temor de un “internet muerto”

La Noticia

Con el reciente lanzamiento de Veo 3, el modelo de inteligencia artificial de video desarrollado por Google DeepMind, la calidad y realismo de los videos generados por IA ha alcanzado un nuevo punto de inflexión. Los usuarios en redes sociales no tardaron en experimentar con la herramienta, generando contenido que ha sorprendido incluso a los expertos del sector por su nivel de coherencia, detalle y fluidez narrativa.

Uno de los primeros videos virales mostraba una situación aparentemente absurda: un pasajero discutiendo con personal de aerolínea por no permitirle abordar un vuelo acompañado de un canguro como animal de apoyo emocional. La escena, completamente generada por IA, presentaba una cámara en mano, audio ambiente creíble y una edición que imitaba los patrones típicos de un video viral. Muchos usuarios —particularmente de generaciones más jóvenes— creyeron que era real.

@yagirlgabby_ Emotional support kangaroo rejected entry to plane. 😭😭 #fyp #viral #fypage #fypage #fypシ #wendyortiz #fypシ゚viral ♬ original sound – Gabby

De la confusión al humor: el uso actual de los videos generados por IA

Tras el impacto inicial, gran parte del público adoptó un enfoque humorístico. Empezaron a circular videos generados por IA que mostraban situaciones imposibles: desde un hombre de las nieves haciendo vlogs hasta osos. Aunque estos ejemplos tienen una clara intención lúdica, no todos los contenidos generados con IA son tan inocentes.

@mrosotour23 #OsoArgentino #Argentina #Veo3 #veo3 #technology #fyp #ia #googleveo ♬ sonido original – MroSo
@nk_music74 las aventuras del Yeti #veo3 #inteligenciaartificial #argentina #yetis #IA #AI #creatorsearchinsights ♬ sonido original – El loco blanco oficial

En paralelo al humor, han surgido videos que recrean historias alternativas o falsas versiones de eventos reales, lo que plantea un problema de desinformación creciente. A esto se suma la dificultad que enfrenta gran parte del público para distinguir entre videos reales y aquellos generados artificialmente.

El riesgo detrás del entretenimiento

El acceso público a herramientas de generación de video tan avanzadas trae consigo una serie de riesgos significativos:

  • Suplantación de identidad: ya es posible clonar rostros, voces y expresiones de personas reales sin su consentimiento.
  • Estafas y fraudes: mediante llamadas, videos y mensajes generados por IA, los delincuentes pueden imitar a familiares o autoridades para obtener datos o dinero.
  • Desinformación masiva: la generación de noticias falsas o recreaciones históricas manipuladas puede alterar la percepción pública de hechos reales.
  • Dependencia cognitiva: al automatizar tareas como redacción, presentaciones o incluso decisiones académicas, los usuarios se alejan del pensamiento crítico y el aprendizaje genuino.

⚠️⚠️⚠️video importante⚠️⚠️⚠️

@urielsuriel

No te vayas con el amague.

♬ original sound – Uriel Suriel
@jjgarcia276 Lo que hubiera pasado en Hidalgo (2019) si hubieran sido inteligentes #ia #ai #noesia #fyp #trend #trending #tranding #tr #huachicol #huachicoleros ♬ original sound – Johan G

El “internet muerto”: de teoría marginal a preocupación creciente

En este contexto, ha resurgido con fuerza la teoría del Internet Muerto, una idea que sugiere que desde hace algunos años gran parte del contenido que circula en internet no es generado por humanos, sino por inteligencias artificiales automatizadas. Según esta hipótesis, foros, redes sociales y hasta artículos de noticias estarían siendo alimentados por bots que simulan interacciones humanas para influir en el comportamiento colectivo, generar tráfico o manipular opiniones.

Aunque no existen pruebas concluyentes que confirmen esta teoría, la creciente automatización del contenido ha reforzado temores sobre un internet cada vez más artificial, donde distinguir lo humano de lo sintético es cada vez más difícil.

¿Cómo identificar contenido generado por IA?

Detectar contenido creado por inteligencia artificial no es sencillo, pero existen algunas señales útiles:

  • Incongruencias visuales o textuales: imágenes con manos deformes, textos con frases repetitivas o errores de contexto sutiles.
  • Ausencia de fuentes verificables: los videos o textos suelen carecer de datos contrastables o enlaces confiables.
  • Demasiada perfección: una narrativa o visual sin errores puede ser sospechosa; la imperfección es característica humana.
  • Herramientas de detección: plataformas como Hive o DetectGPT permiten escanear textos e imágenes para evaluar su probabilidad de origen artificial.
Centrando la nota

Recomendaciones ante posibles fraudes

Ante la posibilidad de ser víctima de una suplantación con voz o imagen generada por IA, expertos en ciberseguridad recomiendan establecer palabras de seguridad con familiares y personas cercanas. Estas claves, acordadas previamente, permiten verificar la identidad de la persona al otro lado de la llamada o mensaje.

Ejemplo hipotético:

“Hola, mamá, me quedé sin pila, este es el número de un amigo. ‘Pepinillos’.”

En este caso, la palabra “pepinillos” serviría como confirmación de autenticidad. Se recomienda usar distintas claves: una para saludos normales, otra en caso de peligro, y una más para contactos desconocidos.

En un mundo donde las máquinas no solo ejecutan, sino también imaginan, cuentan y convencen, la alfabetización digital se vuelve urgente. No se trata de temerle a la tecnología, sino de entenderla, identificarla y usarla con criterio.