LA NADA Y UNO

Videos hechos con IA: Un peligro de las redes sociales cuando ya no podemos creer lo que vemos

El verdadero peligro no está en los videos individuales, sino en el efecto acumulativo que tienen sobre nuestra capacidad colectiva para distinguir lo real de lo sintético.

¿La IA es una herramienta o una forma de desinformar?Créditos: Especial
Por
Escrito en TENDENCIAS el

Durante décadas, ver para creer fue una máxima que nos ayudó a navegar el mundo. Un video era prueba de que algo había realmente ocurrido. Una fotografía capturaba un momento verdadero. Esa certeza, aunque imperfecta, nos permitía construir una comprensión compartida de la realidad.

Pero en septiembre de 2025 esa certeza comenzó a desmoronarse de manera acelerada con el lanzamiento de Sora 2, la nueva plataforma de OpenAI que permite a cualquier persona crear videos realistas usando únicamente inteligencia artificial (IA).

En su primera semana de lanzamiento, Sora 2 se convirtió en la aplicación gratuita más descargada en la App Store de Apple. Millones de usuarios comenzaron a generar y compartir videos de hechos que nunca sucedieron, pero que lucen tan convincentes que resulta cada vez más difícil distinguir lo real de lo fabricado.

No estamos hablando de efectos especiales de Hollywood que requieren equipos de expertos y presupuestos millonarios. Estamos hablando de una aplicación que cualquier persona puede usar desde su teléfono para crear videos que desafían nuestra capacidad de distinguir lo verdadero de lo falso.

La máquina de contenido falso

Sora 2 no es simplemente una herramienta para crear videos. Es una red social completa, similar a TikTok, donde los usuarios pueden generar contenido, compartirlo, hacer remixes de videos creados por otros usuarios y comentarlos.

Esta combinación de creación y distribución ha transformado las redes sociales en lo que algunos críticos llaman “fábricas de contenido falso”. La diferencia con las plataformas tradicionales es fundamental: mientras que TikTok o Instagram comparten contenido grabado y tomado del mundo real, Sora 2 se especializa en compartir contenido mostrando cosas que nunca existieron.

Los videos que circulan en la plataforma muestran el amplio espectro de lo que es posible crear. Algunos son obviamente falsos y tienen un carácter humorístico o absurdo: el Papa Juan Pablo II luchando contra Tupac Shakur, por ejemplo. Estos videos no pretenden engañar a nadie y funcionan más como entretenimiento o experimentos creativos. El problema surge con otros videos, aquellos que son mucho más difíciles de identificar como falsos.

Entre estos videos fake difíciles de detectar encontramos escenas que podrían perfectamente aparecer en las noticias: un niño siendo arrastrado por un tornado, personas sin hogar apareciendo dentro de las casas de otras personas, accidentes dramáticos que nunca sucedieron.

Estos videos no llevan señales evidentes de manipulación. No tienen las distorsiones que solíamos asociar con contenido editado. Lucen, suenan y se sienten reales porque la tecnología detrás de ellos ha alcanzado un nivel de sofisticación sin precedentes.

La erosión de la realidad compartida

El verdadero peligro no está en los videos individuales, sino en el efecto acumulativo que tienen sobre nuestra capacidad colectiva para distinguir lo real de lo sintético. Durante años los videos en redes sociales funcionaron como una forma de evidencia. Si alguien grababa un evento, eso significaba que el evento había ocurrido. Esta función social de los videos era crucial para el periodismo ciudadano, para documentar abusos de autoridad, para compartir momentos importantes de nuestras vidas.

Ahora enfrentamos una paradoja peligrosa. Por un lado, eventos reales capturados en video pueden ser descartados como falsos porque “cualquiera puede crear eso con inteligencia artificial”. Por otro lado, eventos completamente fabricados pueden ser creídos y compartidos como si fueran verdaderos provocando pánico, desinformación o manipulación emocional. Esta doble amenaza socava los cimientos de la forma en que nos comunicamos y nos entendemos como sociedad.

La investigación reciente respalda estas preocupaciones. Un estudio encontró que Sora 2 genera videos falsos o engañosos en el ochenta por ciento de las pruebas realizadas. Esta cifra no es un detalle técnico menor; representa una transformación fundamental en la naturaleza del contenido que consumimos diariamente. Significa que la mayoría del contenido generado por esta tecnología tiene el potencial de desinformar, ya sea intencionalmente o no.

Las plataformas en crisis

Ben Colman, director ejecutivo de Reality Defender, una empresa especializada en detectar contenido manipulado, advierte que esta carrera hacia el fondo en términos de calidad de contenido es negativa para las propias plataformas. Su referencia a MySpace es reveladora. Esa red social, que alguna vez dominó el panorama digital, colapsó en parte porque no dio prioridad a la experiencia y la seguridad de sus usuarios sobre el contenido problemático que sus usuarios comenzaron a compartir.

Las redes sociales tradicionales ya enfrentan diversas críticas por la proliferación de desinformación, pero al menos ese contenido falso requiere cierto esfuerzo para crearse y muchas veces puede ser rastreado hasta sus fuentes. Con Sora 2 y herramientas similares, la barrera para crear contenido falso convincente ha desaparecido casi por completo. Cualquier persona, sin conocimientos técnicos, puede generar videos que antes habrían requerido equipos especializados.

Esta democratización de la creación de contenido falso crea un problema de gran escala. Al día de hoy, las plataformas realizan grandes esfuerzos por moderar el contenido existente. ¿Cómo podrán lidiar con un tsunami de videos generados por IA que son indistinguibles del contenido real? Los sistemas de moderación automatizada pueden ser engañados por videos sintéticos de alta calidad, y la moderación humana simplemente no puede remontar lo suficiente para revisar millones de videos diarios.

El costo emocional de la duda perpetua

Más allá de las implicaciones para las plataformas y la información pública, existe un costo emocional y psicológico que apenas comenzamos a entender. Los “feeds” de redes sociales se están convirtiendo en espacios de alto ruido y baja confianza, donde cada momento emotivo se vuelve sospechoso. Esta dinámica crea lo que algunos expertos describen como una paranoia de bajo nivel que mata la espontaneidad y la magia de las redes sociales.

Pensemos en cómo usábamos las redes sociales hace apenas unos años. Veíamos el video de una boda y nos conmovíamos. Veíamos imágenes de un desastre natural y sentíamos empatía y urgencia por ayudar. Veíamos una injusticia capturada en video y nos movilizábamos para exigir cambios. Todas estas respuestas dependían de un nivel básico de confianza en que lo que estábamos viendo era real.

Ahora, cada uno de esos momentos viene acompañado de una pregunta insidiosa: ¿será esto real? Esta duda constante no solo es agotadora, sino que erosiona nuestra capacidad para conectar emocionalmente con el contenido que consumimos y, consecuentemente, con las personas que lo comparten. Si no podemos confiar en que los momentos compartidos son genuinos, ¿cómo podemos mantener conexiones auténticas en los espacios digitales?

Normalización del engaño

Quizás el aspecto más preocupante de esta nueva era es la manera en que los “deepfakes” y el contenido falso se están normalizando como simple entretenimiento. Cuando vemos al Papa luchando contra Tupac, nos reímos y seguimos recorriendo el “feed”. Pero esa normalización del contenido falso como humor inofensivo nos desensibiliza gradualmente ante contenido falso de carácter más serio y dañino.

Esta normalización ocurre de manera sutil. Comenzamos a aceptar que los videos pueden ser falsos y que eso está bien si son entretenidos. Dejamos de cuestionarnos en torno a lo demás que podría ser falso. Nuestros mecanismos internos de detección de fraude se desgastan porque están constantemente activados. Al final, podemos llegar a un estado de cinismo generalizado donde asumimos que todo es falso o, peor aún, donde deja de importarnos si algo es real o no.

El camino hacia adelante

No podemos simplemente des-inventar estas tecnologías. Sora 2 es solo el comienzo; habrá versiones más avanzadas y competidores que ofrecerán capacidades similares o superiores. La pregunta entonces no es si viviremos en un mundo donde crear videos falsos es trivialmente fácil, sino cómo navegaremos ese mundo.

Necesitamos múltiples líneas de defensa. Las plataformas deben desarrollar mejores sistemas para etiquetar contenido generado por IA. Los usuarios necesitamos desarrollar nuevas habilidades de alfabetización digital que vayan más allá de simplemente creer o no creer en lo que vemos. Los gobiernos deben considerar regulaciones que equilibren la innovación con la protección contra la desinformación masiva.

Pero quizás lo más importante es que necesitamos una conversación social más amplia sobre qué tipo de ecosistema digital queremos habitar. ¿Estamos dispuestos a sacrificar nuestra capacidad para confiar en el contenido visual a cambio de herramientas creativas poderosas? ¿Cómo protegemos el valor del video como evidencia sin limitar la expresión creativa legítima?

Estas preguntas no tienen respuestas fáciles, pero ignorarlas no es opción. Cada día que pasa, más personas descargan aplicaciones como Sora 2 y generan más contenido que difumina la línea entre realidad y ficción. La ventana para establecer normas y prácticas que protejan nuestra comprensión compartida de la realidad se está cerrando rápidamente. Ver ya no es creer, y debemos decidir colectivamente qué colocaremos en el lugar que antiguamente ocupó esa certeza.

Precio de Bitcoin de hoy

Puede ver el precio de hoy de Bitcoin aquí, así como también el precio de hoy de Ethereum y de las principales criptomonedas.

Por Emilio Carrillo Peñafiel, socio de Pérez Correa-González, abogado especializado en temas de financiamiento, tecnología y fusiones y adquisiciones. X: @ecarrillop | Sitio web: pcga.mx