Videos falsos y deepfakes: Análisis con IA para detectar y entender la desinformación

Videos falsos y deepfakes: Análisis con IA para detectar y entender la desinformación

Descubre cómo la inteligencia artificial ayuda a identificar videos falsos y deepfakes, que aumentaron un 47% en 2026. Aprende a detectar contenido manipulado y protege tu información frente a la desinformación y fraudes digitales con análisis en tiempo real.

1/158

Videos falsos y deepfakes: Análisis con IA para detectar y entender la desinformación

54 min de lectura10 artículos

Guía básica para entender qué son los videos falsos y deepfakes en 2026

¿Qué son los videos falsos y deepfakes?

En la era digital actual, los videos falsos y deepfakes representan una de las amenazas más sofisticadas y peligrosas en el ámbito de la desinformación. Aunque ambos términos a menudo se usan de manera intercambiable, entender sus diferencias y características específicas es esencial para navegar con seguridad en el contenido multimedia en 2026.

Los videos falsos o deepfakes son contenidos audiovisuales manipulados mediante técnicas avanzadas de inteligencia artificial (IA) y aprendizaje automático. En esencia, utilizan algoritmos de deep learning para alterar o crear escenas, voces o expresiones faciales de personas en videos, logrando que parezca que alguien dijo o hizo algo que en realidad no ocurrió. La diferencia clave radica en el nivel de realismo y la sofisticación técnica: los deepfakes son casi indistinguibles de los videos genuinos para el espectador promedio.

¿Cómo han evolucionado en 2026?

El incremento en la creación y circulación de videos falsos en 2026 es alarmante. Las cifras muestran un aumento del 47% respecto al año anterior, impulsado por la expansión del uso de IA en plataformas sociales, aplicaciones móviles y herramientas de edición accesibles para todos. La facilidad de crear contenido manipulado ha llevado a que hoy en día, el 71% de los usuarios hayan visto al menos un deepfake en el último año, según informes recientes.

Además, el volumen de denuncias relacionadas con videos manipulados ha aumentado en un 32% en 2025, y las industrias más afectadas incluyen la política, el entretenimiento y la educación. La circulación de fake news, desinformación política y fraudes digitales se ha intensificado, haciendo que la detección y comprensión de estos contenidos sean más importantes que nunca.

Un aspecto preocupante en 2026 es la aparición de IA capaz de generar deepfakes en tiempo real. Esto significa que una persona puede ser engañada por videos manipulados que parecen auténticos en el momento, lo cual aumenta el riesgo de fraudes y delitos cibernéticos. Organismos gubernamentales y empresas tecnológicas están en alerta, implementando nuevas herramientas para detectar estas falsificaciones y proteger la seguridad digital.

¿Cómo reconocer un video falso o manipulador?

Características visuales y auditivas

Reconocer un deepfake o video manipulado requiere atención a ciertos detalles. Algunos indicadores comunes incluyen:

  • Movimientos faciales poco naturales: Las expresiones o gestos pueden parecer forzados o poco fluidos.
  • Desincronización de labios: La sincronización entre el movimiento de los labios y el audio puede ser imperfecta.
  • Errores en la iluminación o sombras: La iluminación en el rostro o fondo puede no coincidir, generando inconsistencias visuales.
  • Incongruencias en el fondo o entorno: Elementos que parecen fuera de lugar o que cambian de forma repentina.
  • Calidad visual deficiente: Aunque los deepfakes avanzados son muy convincentes, aún pueden mostrar pixelación o artefactos en áreas específicas.

Herramientas y recursos tecnológicos

La detección de deepfakes en 2026 ha avanzado gracias a la integración de IA en plataformas de análisis. Herramientas como Deepware Scanner o InVID permiten verificar la autenticidad de videos mediante análisis de pixelación, patrones de movimiento y errores en la sincronización de voz y labios. Además, muchas empresas tecnológicas han implementado sistemas automáticos de detección en redes sociales, que alertan o bloquean contenido sospechoso en tiempo real.

Por otra parte, siempre es recomendable verificar la fuente original del video. Buscar confirmaciones en medios confiables o en sitios oficiales ayuda a evitar caer en la trampa de noticias falsas o manipulación.

¿Por qué son peligrosos los deepfakes en 2026?

Los deepfakes representan un riesgo significativo por varias razones:

  • Desinformación y fake news: Pueden usarse para difundir noticias falsas que influyan en decisiones públicas o privadas.
  • Manipulación política: La creación de videos falsos de políticos o figuras públicas puede alterar procesos electorales o dañar reputaciones.
  • Fraudes y delitos cibernéticos: La IA en tiempo real facilita fraudes financieros, suplantación de identidad y extorsiones.
  • Daño reputacional y social: La circulación de videos manipulados puede destruir carreras, relaciones o confianza pública.

En 2026, el uso malicioso de estas tecnologías ya ha provocado casos de demandas legales, como en el caso de Hartfield, quien demandó a Gervasoni por un video fake en su contra, reflejando la gravedad del problema.

¿Qué podemos hacer para protegernos?

La mejor estrategia para evitar ser engañado por deepfakes y videos falsos es la educación digital y el uso de herramientas tecnológicas. Aquí algunos consejos prácticos:

  • Verifica siempre la fuente: No compartas contenido sin corroborar su autenticidad en medios confiables.
  • Utiliza herramientas de detección automática: Aprovecha aplicaciones y plataformas que analizan videos en busca de inconsistencias.
  • Presta atención a detalles visuales y auditivos: Busca errores en la sincronización, iluminación o movimientos faciales.
  • Desconfía de reacciones emocionales extremas: Los deepfakes a menudo buscan generar miedo, ira o sorpresa para manipular opiniones.
  • Educación continua: Mantente informado sobre las últimas tendencias en deepfakes y desinformación, ya que la tecnología evoluciona rápidamente.

¿Qué futuro nos espera en 2026 y más allá?

Si bien la tecnología de deepfakes sigue avanzando, también lo hacen las herramientas de detección y regulación. En 2026, se espera que la integración de IA en plataformas sociales y aplicaciones móviles permita detectar y bloquear contenido manipulado casi en tiempo real. Además, las legislaciones están endureciendo las sanciones para quienes usan estos contenidos con fines maliciosos.

Por otro lado, la educación y la conciencia pública son clave. La alfabetización digital sobre cómo identificar contenido falso ayudará a reducir su impacto y a fortalecer la confianza en los medios digitales.

Conclusión

Los videos falsos y deepfakes en 2026 representan un desafío importante, pero también una oportunidad para aprender a protegernos y a comprender mejor la tecnología que los hace posibles. La combinación de avances en IA, herramientas de detección y una ciudadanía informada será la mejor defensa contra la desinformación. Reconocer sus características y mantenerse alerta ante la circulación de contenido manipulador es fundamental para preservar la seguridad digital y la integridad de la información en esta era de innovación constante.

Las mejores herramientas de detección automática de videos falsos y deepfakes en 2026

Introducción a la detección de deepfakes en 2026

En un contexto donde los videos falsos y deepfakes se han convertido en una amenaza creciente, contar con herramientas de detección automáticas y precisas es más importante que nunca. En 2026, los deepfakes han experimentado un aumento del 47% respecto al año anterior, impulsados por avances en inteligencia artificial y tecnologías de manipulación audiovisual. La facilidad con la que se generan contenidos casi indistinguibles de la realidad ha llevado a un escenario donde tanto usuarios como organizaciones necesitan estar equipados con las mejores soluciones tecnológicas para identificar la manipulación en tiempo real.

Este incremento en contenido manipulado, especialmente en plataformas sociales y aplicaciones móviles, ha motivado a las empresas tecnológicas a desarrollar sistemas de detección cada vez más sofisticados. La combinación de análisis en tiempo real, inteligencia artificial avanzada y aprendizaje automático ha permitido crear herramientas que no solo detectan deepfakes, sino que también previenen su propagación y ayudan a proteger la integridad de la información.

¿Qué características deben tener las mejores herramientas en 2026?

Precisión y rapidez en la detección

Las herramientas más efectivas en 2026 deben ofrecer detección en tiempo real con una tasa de precisión superior al 95%. La rapidez es crucial, especialmente en plataformas donde los contenidos viralizados pueden afectar decisiones públicas o económicas en minutos. La detección automática basada en IA analiza patrones sutiles en la pixelación, iluminación, movimientos faciales y sincronización de labios para identificar inconsistencias que delatan un contenido manipulado.

Capacidad de análisis multifacético

Las mejores soluciones combinan análisis visual, auditivo y contextual. Por ejemplo, detectan fallos en la sincronización de labios con el audio, errores en sombras y reflejos, anomalías en el movimiento facial o patrones inusuales en la iluminación. Además, el análisis contextual revisa la fuente del video y su historia en la web, ayudando a identificar si fue publicado en plataformas sospechosas o en sitios de desinformación.

Integración con plataformas y dispositivos

En 2026, la integración con redes sociales, aplicaciones móviles y sistemas de gestión de contenido es esencial. Las herramientas deben ser capaces de funcionar en diferentes plataformas, permitiendo a usuarios y organizaciones verificar contenidos en cualquier momento y lugar. La compatibilidad con inteligencia artificial en la nube y en dispositivos permite realizar análisis en tiempo real sin necesidad de infraestructura compleja.

Herramientas líderes en detección automática de deepfakes en 2026

1. DeepSight AI

DeepSight AI se ha consolidado como uno de los principales sistemas de detección en 2026. Utiliza redes neuronales convolucionales (CNN) entrenadas con vastos conjuntos de datos de deepfakes y videos genuinos. Su tecnología analiza en segundos patrones de pixelación, errores en la iluminación y movimientos faciales poco naturales. Además, integra análisis de audio para detectar sincronización irregular y voces alteradas en tiempo real.

Su plataforma es compatible con redes sociales y permite verificar contenidos con un clic, ofreciendo alertas inmediatas sobre posibles falsificaciones.

2. VeriTruth

VeriTruth destaca por su capacidad de análisis multifactorial. Usa modelos de aprendizaje profundo para detectar inconsistencias en la biomecánica facial y en la coherencia del contenido audiovisual. También cuenta con herramientas de análisis de contexto, comparando el video con bases de datos de noticias verificadas y archivos históricos.

Su fuerte radica en la detección de videos en tiempo real en plataformas de streaming y redes sociales, siendo utilizado por medios de comunicación y agencias de seguridad digital.

3. Authentica

Authentica combina análisis visual con inteligencia artificial para detectar deepfakes con alta precisión en cuestión de segundos. Su tecnología emplea algoritmos que identifican fallas en la iluminación y en la anatomía facial, además de analizar la coherencia en el movimiento de los ojos y la boca.

Otra ventaja importante es su capacidad de aprendizaje continuo, que se actualiza con las últimas técnicas de manipulación audiovisual y deepfake en tiempo real, manteniendo su eficacia en un escenario cambiante.

4. RealGuard

RealGuard se ha destacado por su enfoque en la detección de videos en vivo, incluso en transmisiones en tiempo real o en plataformas de videollamadas. Utiliza análisis en profundidad de patrones de movimiento y análisis de voz en tiempo real, alertando a los usuarios si detecta posibles deepfakes en transmisión en directo.

Su tecnología es muy valorada en entornos políticos y de seguridad, donde la manipulación en tiempo real puede tener consecuencias graves.

El papel de la inteligencia artificial y análisis en tiempo real

La capacidad de analizar contenido audiovisual en tiempo real y con IA avanzada ha revolucionado la lucha contra los video falsos. Los avances en aprendizaje profundo permiten detectar detalles casi imperceptibles para el ojo humano, como errores en la biomecánica facial o inconsistencias en la iluminación y sombras.

Además, la integración de análisis contextual y cruzamiento con bases de datos verificadas ayuda a determinar la autenticidad del contenido rápidamente. La tendencia en 2026 muestra que estas herramientas no solo detectan deepfakes sino que también previenen su difusión, bloqueando contenidos potencialmente dañinos antes de que se vuelvan virales.

Implicaciones y desafíos futuros

Con el incremento de la sofisticación en la creación de deepfakes, las herramientas de detección deben evolucionar continuamente. La aparición de IA capaz de generar falsificaciones en tiempo real plantea desafíos en la regulación y en la protección de la información. La cooperación entre empresas tecnológicas, gobiernos y organizaciones civiles será clave para mantener la eficacia de estas herramientas.

Además, la ética en el uso de estas tecnologías y la protección de la privacidad son aspectos que deben equilibrarse con la necesidad de detectar contenido manipulado. La educación digital y la alfabetización en medios también jugarán un papel fundamental en 2026 para que los usuarios puedan identificar y reportar deepfakes con mayor confianza.

Conclusión

El panorama en 2026 demuestra que las herramientas automáticas de detección de videos falsos y deepfakes son imprescindibles en la lucha contra la desinformación y el fraude digital. La combinación de IA avanzada, análisis multifacético y capacidad de integración en plataformas sociales permite detectar contenido manipulado con alta precisión y en tiempo real. Sin embargo, la constante evolución de las técnicas de creación de deepfakes requiere que estas herramientas también mejoren continuamente.

Para profesionales y usuarios avanzados, aprovechar las tecnologías líderes en detección es vital para mantener la seguridad digital, proteger la reputación y garantizar la veracidad de la información en un entorno cada vez más manipulado. La batalla contra las noticias falsas y los videos falsos en 2026 está en marcha, y la innovación en detección automática será la clave para enfrentarlo con éxito.

Cómo los deepfakes están impactando la política y las noticias en 2026

En 2026, los deepfakes han llegado a convertirse en una herramienta clave —y también en un desafío— para la política y los medios de comunicación. La creación de videos falsos, gracias a avances en inteligencia artificial (IA), ha aumentado un 47% respecto al año anterior, alcanzando niveles alarmantes en plataformas sociales y aplicaciones móviles. La capacidad de generar contenido audiovisual convincente en tiempo real ha abierto nuevas puertas tanto para campañas políticas como para campañas de desinformación, transformando la forma en que la información se comparte y se percibe.

El 64% de los videos falsos detectados en 2025 estaban relacionados con noticias falsas y desinformación política. Esto refleja cómo las tecnologías de manipulación audiovisual ya no solo se utilizan para crear entretenimiento, sino que se han convertido en armas de influencia. La facilidad de acceso a herramientas de creación de deepfakes, combinada con su bajo costo y alta eficacia, ha llevado a un aumento en su uso en campañas electorales, intentos de sabotaje y campañas de desprestigio.

Campañas electorales y fake news

Uno de los casos más sonados en 2026 fue la difusión de un deepfake del candidato presidencial de un país latinoamericano, que mostraba una supuesta confesión comprometedora. Aunque el video fue rápidamente desmentido, logró generar una ola de desconfianza entre los votantes y alteró el debate público durante varias semanas. La rapidez con la que se diseminó, combinada con la falta de herramientas de detección en ese momento, evidenció cuán vulnerable es la política ante estos contenidos manipulados.

En otro ejemplo, un video manipulado de un líder político europeo aparentemente aceptando sobornos fue utilizado en redes sociales para desacreditarlo. La viralización de estos contenidos llevó a protestas y a una crisis de confianza en ciertos partidos políticos, demostrando cómo las deepfakes pueden influir en decisiones electorales y en la percepción pública.

Fraudes y campañas de desinformación

El fraude digital ha evolucionado con las deepfakes. En 2026, organizaciones criminales usan IA para crear voces y videos falsos en tiempo real, lo que resulta en fraudes financieros y suplantación de identidad. Por ejemplo, se han reportado casos donde se manipulan videos de ejecutivos para ordenar transferencias millonarias, aprovechando la credibilidad que transmiten los contenidos audiovisuales falsificados.

Las campañas de desinformación también se han beneficiado de estas tecnologías, generando narrativas falsas que afectan la estabilidad social y política. La propagación de fake news, alimentada por deepfakes, ha contribuido a la polarización de sociedades y a la desconfianza en las instituciones tradicionales.

Herramientas de detección automática

La lucha contra los videos falsos en 2026 se apoya en una inversión masiva en tecnologías de detección automatizada. El 85% de las empresas tecnológicas ha implementado ya estas herramientas, que analizan inconsistencias en pixelación, iluminación, sincronización de labios y movimientos faciales. Estas soluciones, alimentadas por IA, permiten identificar deepfakes con una precisión cada vez mayor, en tiempo real y con menor tasa de falsos positivos.

Además, muchas plataformas sociales, como YouTube, Facebook y TikTok, han integrado sistemas de análisis que bloquean o marcan contenido sospechoso, facilitando la revisión por parte de expertos humanos y promoviendo la transparencia.

Colaboración entre sectores público y privado

El combate efectivo contra los deepfakes requiere cooperación. En 2026, gobiernos, empresas tecnológicas y organizaciones internacionales trabajan en conjunto para crear marcos legales y protocolos que penalicen la creación y distribución de contenido manipulado maliciosamente. Algunas regulaciones ya prevén multas severas y penas de prisión para quienes usen deepfakes para difamar, engañar o cometer delitos.

Por otro lado, se están promoviendo campañas de alfabetización digital para que los usuarios puedan identificar mejor los contenidos falsos y no compartirlos sin verificar su autenticidad.

IA en tiempo real y nuevos desafíos

Los desarrollos recientes en IA permiten generar deepfakes en tiempo real, lo que aumenta la dificultad de detección. En 2026, se han creado sistemas que pueden alterar la voz y la imagen en vivo, en segundos, con una calidad casi indistinguible de la realidad. Esto plantea retos importantes para la seguridad digital, ya que puede facilitar fraudes, extorsiones o incluso ataques en cumbres internacionales y debates políticos en directo.

Por ello, la innovación en herramientas de detección y la regulación son prioritarias para prevenir daños mayores.

La importancia de la educación y el pensamiento crítico

Frente a la creciente sofisticación de los deepfakes, la formación en alfabetización digital se vuelve esencial. Los usuarios deben aprender a verificar las fuentes, a buscar confirmaciones en medios confiables y a desconfiar de contenidos que generan reacciones emocionales extremas. La educación en seguridad digital es la primera línea de defensa contra la manipulación y la desinformación.

  • Verifica la fuente: Siempre revisa la procedencia del video y busca confirmaciones en medios confiables.
  • Analiza detalles visuales y de audio: Busca errores en movimientos faciales, sincronización de labios y cambios de iluminación.
  • Utiliza herramientas de detección automática: Plataformas como Deepware Scanner o InVID ofrecen análisis rápidos y efectivos.
  • Desconfía de contenido emocionalmente impactante: Si algo parece demasiado bueno o aterrador, verifica antes de compartir.
  • Mantente informado: Conoce las últimas tendencias en deepfakes y desinformación para reconocer mejor los contenidos manipulados.

El incremento en la creación y distribución de deepfakes en 2026 representa un desafío mayor en la lucha contra la desinformación y la manipulación política. Sin embargo, los avances en IA para detectar estos contenidos, la colaboración entre sectores y la educación digital ofrecen herramientas efectivas para enfrentar esta problemática. La clave está en mantenernos críticos, informados y en usar las tecnologías disponibles para proteger la integridad de la información en un entorno cada vez más digital y sofisticado.

La lucha contra los videos falsos en el ámbito político y mediático no solo requiere innovación tecnológica, sino también un compromiso ético y legal que garantice la transparencia y la confianza en la información pública. Solo así podremos preservar la integridad del debate democrático en la era de los deepfakes.

Tendencias y predicciones: el futuro de los videos falsos y la seguridad digital en los próximos años

El auge de los deepfakes y su impacto en la seguridad digital

En 2026, los videos falsos o deepfakes continúan siendo un fenómeno en rápida expansión. Según informes recientes, su incremento ha sido de un 47% respecto al año anterior, lo que evidencia la creciente sofisticación y disponibilidad de estas tecnologías. La facilidad para crear contenidos manipulados ha llevado a una mayor propagación en plataformas de redes sociales y aplicaciones móviles, donde el alcance y la velocidad de distribución son abrumadores.

Estos videos, que utilizan inteligencia artificial avanzada para alterar o generar contenido audiovisual, se emplean en contextos variados: desde noticias falsas y desinformación política hasta fraudes y manipulación emocional. El 64% de los videos falsos detectados en 2025 estaban relacionados con noticias falsas y campañas de desinformación política, reflejando su potencial para influir en la opinión pública y en procesos electorales.

Por otra parte, el volumen de denuncias por videos manipulados creció un 32% en el último año, lo que revela un aumento en la conciencia y en los esfuerzos por combatir esta problemática. Industrias como la política, el entretenimiento y la educación son las más afectadas, generando un impacto económico y social significativo.

Avances en inteligencia artificial y creación de deepfakes en tiempo real

IA generando falsificaciones en vivo

Uno de los desarrollos más alarmantes en 2026 es la aparición de IA capaz de generar deepfakes en tiempo real. Esto significa que un contenido audiovisual puede ser alterado o creado en el momento, dificultando aún más la identificación de contenido genuino. Ejemplos de esto incluyen voces y gestos en vivo que parecen auténticos, pero que en realidad son manipulaciones digitalmente generadas.

Este avance incrementa el riesgo de fraudes cibernéticos, delitos de suplantación de identidad y campañas de desinformación que parecen más reales que nunca. Organismos gubernamentales y empresas tecnológicas están en alerta, ya que estas tecnologías pueden ser utilizadas para crear escenarios falsos que parecen perfectamente naturales, confundiendo a audiencias y sistemas de seguridad.

Desafíos en detección y protección contra videos falsos

Herramientas y enfoques emergentes

Afortunadamente, el mismo avance en IA ha impulsado el desarrollo de herramientas de detección automática que analizan inconsistencias en pixelación, movimiento, iluminación y sincronización de labios. En 2026, el 85% de las empresas tecnológicas ya utilizan estas tecnologías para identificar y bloquear contenido manipulado, lo que es un paso crucial para fortalecer la seguridad digital.

Además, plataformas sociales y aplicaciones móviles están integrando sistemas de análisis en tiempo real, que permiten detectar y eliminar deepfakes rápidamente. La colaboración entre empresas, gobiernos y organizaciones independientes es clave para crear una red de protección contra estos contenidos maliciosos.

Por ejemplo, algunas herramientas analizan patrones de comportamiento en el contenido, detectando anomalías en la voz o en los movimientos faciales, y alertan a los usuarios o moderadores sobre posibles deepfakes. Sin embargo, la velocidad con la que se crean estos videos exige una constante innovación en las tecnologías de detección.

Predicciones a futuro y preparación para los próximos años

Regulación y legislación

Un aspecto que se perfila como prioritario en los próximos años es la creación de marcos legales específicos para los deepfakes. En 2026, varios países están trabajando en leyes que penalicen el uso malintencionado de estas tecnologías, especialmente en casos de fraude, difamación y manipulación electoral.

Se espera que en los próximos años estas regulaciones se vuelvan más estrictas, impulsando también la responsabilidad de las plataformas y desarrolladores en la detección y eliminación de contenidos falsificados.

Educación y conciencia digital

Otra estrategia fundamental es la educación digital. Capacitar a usuarios, periodistas y profesionales de la seguridad en la identificación de videos falsos ayuda a reducir su impacto. La formación en pensamiento crítico, junto con el uso de herramientas de verificación, será clave para navegar en un entorno digital cada vez más saturado de contenido manipulado.

Las campañas de concientización y los recursos educativos deben centrarse en enseñar a detectar detalles como movimientos poco naturales, errores en la sincronización de labios o cambios en la iluminación, que suelen ser indicios de un deepfake.

Implicaciones éticas y sociales

El avance de los deepfakes plantea también desafíos éticos importantes. La línea entre realidad y ficción se vuelve difusa, poniendo en riesgo la confianza en los contenidos audiovisuales. La posibilidad de crear videos que parecen auténticos puede utilizarse tanto para fines benignos, como en el entretenimiento, como para actividades maliciosas, incluyendo campañas de difamación o fraudes.

Por ello, la responsabilidad de los creadores y plataformas digitales será crucial. La transparencia en la divulgación de contenido manipulado y la implementación de marcas de verificación digital podrán ayudar a distinguir lo real de lo falso.

Conclusión

El futuro de los videos falsos se vislumbra como un campo de batalla entre la innovación tecnológica y la necesidad de protección y regulación. La rápida evolución de la inteligencia artificial permite crear deepfakes en tiempo real, lo que plantea serios desafíos en seguridad digital y desinformación. Sin embargo, también impulsa el desarrollo de herramientas cada vez más sofisticadas para detectar y combatir estas amenazas.

Para navegar en este panorama, es imprescindible que usuarios, organizaciones y gobiernos colaboren en la implementación de regulaciones, educación y tecnologías de detección. Solo así será posible mantener la confianza en el contenido audiovisual y prevenir que los deepfakes sean utilizados como armas de manipulación y fraude en los próximos años.

Casos de estudio: cómo las empresas y gobiernos están combatiendo los videos falsos en 2026

El auge de los deepfakes y su impacto en la sociedad

En 2026, los videos falsos o deepfakes han experimentado un incremento del 47% en comparación con el año anterior, convirtiéndose en una de las principales amenazas en la era digital. La proliferación de estas manipulaciones audiovisuales, especialmente en plataformas de redes sociales y aplicaciones móviles, ha puesto en jaque la veracidad de la información que consumimos diariamente.

Según recientes estudios, el 64% de los deepfakes detectados en 2025 estaban relacionados con noticias falsas y desinformación política. La facilidad con la que se puede crear contenido convincente ha llevado a un aumento en la propagación de fake news, afectando procesos democráticos y generando confusión entre la ciudadanía.

Este fenómeno ha obligado a gobiernos, empresas tecnológicas y organizaciones civiles a implementar estrategias innovadoras para detectar y contrarrestar estos contenidos manipulados antes de que causen daños irreparables.

Tecnologías y herramientas en la lucha contra los videos falsos

Detección automática mediante IA

El uso de inteligencia artificial para detectar deepfakes se ha consolidado en 2026 como la estrategia más efectiva. El 85% de las empresas tecnológicas ya emplean herramientas automatizadas que analizan aspectos como inconsistencias en la pixelación, errores en la sincronización labial y anomalías en la iluminación o el fondo.

Estas soluciones, basadas en aprendizaje profundo, comparan el contenido sospechoso con bases de datos de videos auténticos y utilizan algoritmos que identifican patrones de manipulación que serían difíciles de detectar a simple vista.

Por ejemplo, plataformas como Meta y Google han desarrollado sistemas de detección en tiempo real que bloquean automáticamente la publicación de videos falsos en sus redes sociales, minimizando su alcance.

Verificación colaborativa y fact-checking digital

Además de las tecnologías automáticas, la colaboración entre usuarios y verificadores profesionales ha sido clave. Organizaciones como First Draft y FactCheck.org han ampliado sus esfuerzos en la formación de comunidades capaces de identificar contenidos sospechosos y reportarlos rápidamente.

En 2026, plataformas sociales implementan botones de denuncia y alertas que activan procesos de revisión rápida, con la ayuda de IA, para verificar la autenticidad del video y reducir su viralización.

La integración de estos mecanismos ha permitido disminuir en un 32% las denuncias relacionadas con videos manipulados en comparación con 2025, aunque la cantidad sigue siendo significativa ante la creciente sofisticación de las técnicas de falsificación.

Casos emblemáticos y respuestas institucionales

El caso de la manipulación política en Brasil

Uno de los casos más destacados en 2026 ocurrió en Brasil, donde un deepfake de un líder político diciendo declaraciones controvertidas circuló en redes sociales, generando protestas masivas. La rápida acción de las autoridades, mediante herramientas de detección en tiempo real y análisis forense digital, permitió identificar la falsificación en pocas horas.

El gobierno brasileño, en colaboración con empresas tecnológicas, emitió un comunicado alertando a la ciudadanía y promoviendo campañas de alfabetización digital para reconocer videos falsos. Además, se fortalecieron las leyes contra la manipulación audiovisual, estableciendo sanciones más severas para quienes difundan contenido manipulado con fines dañinos.

Respuestas del sector privado en la protección de marcas y reputación

Empresas del sector entretenimiento y medios de comunicación también han adoptado medidas rigurosas. Warner Bros., por ejemplo, utiliza sistemas de IA para verificar la autenticidad de videos promocionales y evitar que deepfakes de personajes famosos sean utilizados malintencionadamente.

Asimismo, plataformas como TikTok y Twitter han implementado filtros avanzados que bloquean automáticamente videos sospechosos y alertan a los usuarios, además de colaborar con verificadores externos para mejorar la precisión en la detección.

Estas acciones no solo protegen la reputación de las marcas, sino que también fomentan una mayor confianza en los contenidos compartidos en línea.

El papel de la regulación y la educación digital

Legislación y sanciones en auge

En 2026, los gobiernos han intensificado la regulación sobre la creación y distribución de deepfakes. En países como Estados Unidos, la Unión Europea y Brasil, se han aprobado leyes que penalizan el uso malicioso de esta tecnología, incluyendo multas y penas de prisión.

Estas normativas buscan disuadir a los actores que intentan manipular información con fines fraudulentos, como fraudes financieros, extorsiones o campañas de desinformación.

La colaboración internacional también ha sido fundamental para establecer estándares y protocolos que permitan identificar y sancionar rápidamente las conductas ilícitas relacionadas con videos falsos.

Concienciación y alfabetización digital

Por otro lado, la educación digital ha cobrado un papel central. Programas de alfabetización en medios y campañas públicas buscan enseñar a los usuarios a identificar señales de manipulación, como movimientos faciales poco naturales, errores en la sincronización de labios y fondos inconsistentes.

Expertos recomiendan verificar siempre la fuente, consultar medios confiables y usar herramientas de detección automática antes de compartir contenido sospechoso. La formación en pensamiento crítico y el conocimiento sobre las técnicas de creación de deepfakes son clave para reducir la propagación de desinformación.

Perspectivas futuras y recomendaciones

El panorama en 2026 muestra que, aunque las tecnologías de detección han avanzado notablemente, la lucha contra los videos falsos es un juego de gato y ratón. Los creadores de contenido manipulado perfeccionan continuamente sus técnicas, empleando IA para generar deepfakes cada vez más realistas y en tiempo real.

Por ello, las organizaciones deben mantenerse actualizadas, combinando tecnología avanzada con campañas de educación y regulación efectiva. La cooperación entre gobiernos, sector privado y sociedad civil será la clave para preservar la integridad informativa.

En conclusión, la batalla contra los videos falsos en 2026 ha llevado a una mayor conciencia y a la implementación de herramientas sofisticadas, pero también revela la necesidad de seguir fortaleciendo la alfabetización digital y la legislación para proteger a la sociedad de los riesgos asociados a la manipulación audiovisual.

El papel de la inteligencia artificial en la creación y detección de videos falsos en 2026

La evolución de los deepfakes y su impacto en la sociedad

En 2026, los deepfakes y los videos falsos han experimentado un crecimiento exponencial, aumentando en un 47% respecto al año anterior. Estas cifras reflejan no solo un avance tecnológico, sino también una creciente preocupación por su impacto en la política, el entretenimiento y la educación. La facilidad para crear contenidos audiovisuales altamente realistas ha llevado a que un 71% de los usuarios hayan visto al menos un video falso en el último año, según estudios recientes.

La sofisticación en la generación de videos manipulados ha llegado a niveles donde distinguir un contenido real de uno falso requiere atención meticulosa a detalles como movimientos faciales poco naturales, errores en la sincronización de labios o inconsistencias en la iluminación y el fondo. La proliferación en plataformas sociales y aplicaciones móviles también ha facilitado la difusión rápida y masiva de noticias falsas, con un aumento del 32% en denuncias relacionadas con videos manipulados en 2025.

Este escenario plantea un doble desafío: por un lado, la creación de deepfakes cada vez más convincentes; por otro, la lucha contra la desinformación mediante tecnologías de detección automatizada, que en 2026 se han convertido en una herramienta esencial para mantener la integridad de la información digital.

El papel de la inteligencia artificial en la creación de deepfakes

Avances en la generación de contenido manipulado

La IA ha sido clave en la creación de deepfakes, permitiendo a los usuarios generar videos falsos con una precisión asombrosa. En 2026, existen sistemas capaces de crear falsificaciones de voz y video en tiempo real, lo que aumenta los riesgos asociados con fraudes y delitos cibernéticos.

Estas tecnologías emplean técnicas de aprendizaje profundo, como las redes generativas adversariales (GANs), para crear rostros, voces y movimientos que parecen auténticos. Por ejemplo, se han desarrollado aplicaciones que pueden alterar la voz de una persona en vivo, haciendo que parezca que están diciendo cosas que en realidad nunca dijeron.

Este avance ha sido aprovechado tanto para fines legítimos, como en el cine y la publicidad, como para usos maliciosos, incluyendo fraudes, extorsiones y campañas de desinformación política. La velocidad y el realismo de estas herramientas hacen que la detección sea cada vez más difícil, lo que ha llevado a una carrera tecnológica entre creadores y detectores de deepfakes.

Desafíos éticos en la creación de contenido falso

El uso de IA para generar videos falsos plantea serias cuestiones éticas. La facilidad para manipular la realidad puede socavar la confianza pública en los medios y las instituciones. La creación de deepfakes no siempre es intencionada para engañar; en algunos casos, se emplea para entretenimiento, arte o investigación. Sin embargo, la línea entre lo legítimo y lo malicioso se vuelve difusa cuando estos contenidos se usan para dañar reputaciones o manipular decisiones.

Además, la aparición de deepfakes en tiempo real aumenta la posibilidad de fraudes y delitos cibernéticos. Organismos gubernamentales y organizaciones de derechos digitales advierten sobre el riesgo de que estas tecnologías sean utilizadas para falsificar identidades, realizar estafas o difamar a figuras públicas en contextos políticos o sociales críticos.

La detección de videos falsos mediante inteligencia artificial

Herramientas y tecnologías en 2026

El combate contra los deepfakes y los videos manipulados ha avanzado significativamente en los últimos años. Hoy en día, el 85% de las empresas tecnológicas ya emplean herramientas automáticas para detectar contenido manipulado, y muchas plataformas sociales han implementado algoritmos para identificar y bloquear deepfakes en tiempo real.

Estas tecnologías analizan múltiples aspectos del contenido, como inconsistencias en la pixelación, errores en la sincronización de labios, cambios en la iluminación o patrones de movimiento poco naturales. Algunas soluciones también verifican la fuente original del video y cruzan la información con bases de datos de contenido auténtico para determinar su veracidad.

Un ejemplo destacado en 2026 es la utilización de sistemas de inteligencia artificial que aprenden y mejoran continuamente sus capacidades de detección, adaptándose a las nuevas técnicas de creación de deepfakes. La integración de estos sistemas en plataformas como redes sociales, medios de comunicación y aplicaciones móviles ha sido crucial para reducir la difusión de contenido manipulado.

Retos tecnológicos y éticos en la detección

A pesar de los avances, la detección de deepfakes sigue enfrentando desafíos importantes. Los creadores de videos falsos utilizan cada vez más técnicas para eludir los sistemas de detección, como añadir ruido, alterar detalles sutiles o usar modelos generativos más sofisticados. La lucha es constante y requiere una actualización continua de las herramientas de análisis.

Desde el punto de vista ético, surge la preocupación por la privacidad y la vigilancia. La recopilación y análisis de contenido multimedia para detectar deepfakes puede implicar riesgos de vigilancia masiva o uso indebido de datos personales. Es fundamental establecer marcos regulatorios que protejan los derechos individuales mientras se combate eficazmente la desinformación.

Implicaciones prácticas y recomendaciones

  • Uso de herramientas de detección automática: Incorporar tecnologías de IA en plataformas y medios para verificar contenidos en tiempo real.
  • Formación y alfabetización digital: Educar a usuarios y profesionales sobre cómo identificar deepfakes y contenidos manipulados, prestando atención a detalles visuales y auditivos.
  • Verificación de fuentes confiables: Siempre confirmar la autenticidad de un video consultando medios oficiales o verificadores especializados.
  • Participación en debates éticos y regulatorios: Promover políticas que regulen la creación y difusión de deepfakes, garantizando un equilibrio entre innovación y protección de derechos.
  • Desarrollo de tecnologías anti-manipulación: Apoyar la investigación en sistemas que puedan marcar automáticamente contenido falso o manipulado para facilitar su identificación.

Además, mantenerse informado sobre las últimas tendencias en deepfakes y las herramientas disponibles es clave para adaptarse a un entorno digital en constante cambio. La colaboración entre tecnólogos, legisladores y la sociedad civil será fundamental para gestionar los riesgos asociados y aprovechar las ventajas que ofrece la IA en la lucha contra la desinformación.

Conclusión

En 2026, la inteligencia artificial continúa siendo un actor central tanto en la creación como en la detección de videos falsos. La dualidad entre la sofisticación en la generación de deepfakes y la innovación en sistemas de detección refleja la naturaleza dinámica de esta batalla digital. La clave radica en aprovechar las tecnologías de IA para proteger la integridad de la información, mientras se enfrentan los desafíos éticos y tecnológicos que surgen en el camino.

El combate contra los videos manipulados requiere un esfuerzo conjunto, una regulación adecuada y una ciudadanía informada. Solo así podremos garantizar que la tecnología sirva para fortalecer la confianza y la seguridad digital, en un escenario donde los videos falsos siguen siendo una amenaza real y en constante evolución.

Cómo identificar videos falsos en redes sociales: consejos prácticos para usuarios en 2026

La creciente amenaza de los videos falsos y deepfakes en 2026

En 2026, los videos falsos o deepfakes representan uno de los mayores desafíos en el ámbito digital. Según datos recientes, el incremento en la creación y distribución de contenidos manipulados ha alcanzado un 47% respecto al año anterior. Plataformas como TikTok, Instagram y Facebook han visto un aumento en la circulación de estos videos, que muchos usuarios toman como reales. La desinformación, en especial en temas políticos y de actualidad, se alimenta de estos contenidos, que en 2025 estaban relacionados en un 64% con noticias falsas y campañas de manipulación.

Este auge se debe en parte a los avances en inteligencia artificial, que ahora permiten crear deepfakes en tiempo real con una precisión asombrosa. La facilidad de acceso a herramientas de edición y generación automática hace que sea más sencillo que nunca engañar a la audiencia. Sin embargo, también ha surgido una ola de soluciones tecnológicas destinadas a detectar estos contenidos falsificados, que en 2026 ya son utilizadas por el 85% de las empresas tecnológicas para combatir la desinformación.

Para los usuarios, entender cómo funcionan estos videos y aprender a identificarlos es vital para no caer en engaños o difundir información errónea.

¿Qué son exactamente los deepfakes y cómo se crean?

Definición y técnicas

Los deepfakes son videos manipulados mediante algoritmos de inteligencia artificial, que permiten alterar o crear contenido audiovisual que parece auténtico. Utilizan aprendizaje profundo para modificar rostros, voces o escenas completas, logrando resultados que, en muchos casos, son casi indistinguibles de la realidad. En 2026, las técnicas de generación de deepfakes han llegado a un nivel en el que pueden producir en tiempo real contenido convincente, incluso en transmisiones en vivo.

¿Por qué son peligrosos?

Este tipo de contenidos puede ser utilizado para difamar, manipular opiniones públicas, cometer fraudes o incluso influir en decisiones electorales. La capacidad de generar voces y rostros falsos en tiempo real hace que la detección de estos videos sea cada vez más compleja, dificultando la tarea tanto de usuarios como de plataformas.

Por eso, aprender a distinguir un video auténtico de uno manipulado es fundamental para mantener la integridad de la información y la seguridad digital.

Consejos prácticos para detectar videos falsos en redes sociales

1. Analiza los detalles visuales y de audio

Uno de los primeros pasos para identificar un video manipulado es examinar detenidamente los detalles visuales. Busca movimientos faciales poco naturales, sincronización labial inexacta o cambios abruptos en el fondo. Los deepfakes a menudo presentan pequeñas inconsistencias en la iluminación, sombras o en la expresión facial que pueden pasar desapercibidas a simple vista.

En cuanto al audio, escucha atentamente si la voz suena forzada, con cambios en el tono o en la calidad sonora. La sincronización de labios con el diálogo también puede ser un indicador clave. En 2026, los deepfakes en tiempo real aún presentan fallos en estos aspectos, aunque cada vez menos perceptibles.

2. Verifica la fuente y la credibilidad del contenido

Antes de compartir o tomar como cierta una pieza audiovisual, revisa la fuente original. ¿Fue publicado por una cuenta oficial, un medio confiable o un creador reconocido? Desconfía de videos que aparecen en perfiles desconocidos o en páginas sin respaldo verificable.

Además, busca información adicional en medios confiables. Si un video viral muestra un evento impactante, verifica si otros medios o instituciones oficiales lo están reportando. La corroboración es clave para evitar caer en fake news.

3. Usa herramientas automáticas de detección

En 2026, la tecnología para detectar deepfakes ha avanzado significativamente. Plataformas y aplicaciones como Deepware Scanner, InVID o funciones integradas en redes sociales pueden analizar automáticamente el contenido y señalar posibles manipulaciones. Aprovecha estas herramientas para verificar videos sospechosos, especialmente en plataformas que ya las han incorporado en su sistema de moderación.

Estas tecnologías revisan inconsistencias en píxeles, iluminación, movimiento facial y sincronización de audio, ayudando a distinguir entre contenido real y manipulado en segundos.

4. Observa las reacciones y comentarios de la comunidad

Una comunidad activa puede ser una fuente valiosa de información. Si un video genera reacciones de duda o denuncia por parte de otros usuarios, revisa sus comentarios y análisis. Muchas veces, los usuarios críticos ofrecen detalles sobre errores o inconsistencias que podrían indicar que el video es falso.

En redes sociales, los usuarios informados y críticos juegan un papel importante en la detección precoz de contenidos manipulados, ayudando a frenar su propagación.

5. Mantente informado sobre las tendencias y nuevas técnicas

La tecnología avanza rápidamente. En 2026, las técnicas de creación y detección de deepfakes están en constante evolución. Participa en webinars, lee artículos especializados y sigue las noticias sobre nuevas tendencias en inteligencia artificial y manipulación audiovisual. Esto te permitirá entender mejor las formas en que se generan estos contenidos y cómo identificarlos de manera efectiva.

Prácticas recomendadas para usuarios y creadores de contenido

  • Verifica siempre el origen: Antes de compartir un video, asegúrate de que proviene de una fuente confiable.
  • Educa tu ojo y oído: Practica la detección de detalles visuales y auditivos que puedan indicar manipulación.
  • Utiliza herramientas de detección automática: Aprovecha las aplicaciones y sistemas integrados en plataformas sociales para analizar contenidos sospechosos.
  • Fomenta la alfabetización digital: Comparte con amigos y seguidores información sobre cómo reconocer deepfakes y videos falsos.
  • Reporta contenidos manipulados: Cuando detectes un video falso, denúncialo a la plataforma para que pueda ser revisado y eliminado si corresponde.

El papel del usuario en la lucha contra la desinformación

En un entorno digital donde los deepfakes y videos falsos proliferan, la responsabilidad recae en cada uno de nosotros. La alfabetización digital, combinada con el uso de tecnologías de detección, es la mejor defensa contra la desinformación. La clave está en mantener una actitud crítica, verificar la información y no compartir contenidos sin comprobar su autenticidad.

En 2026, la colaboración entre usuarios, plataformas y gobiernos es fundamental para reducir la circulación de videos manipulados y proteger la verdad en el ecosistema digital.

Conclusión

La detección de videos falsos en redes sociales en 2026 requiere atención, práctica y el uso de herramientas tecnológicas avanzadas. Con el incremento en la creación de deepfakes, estar alerta y desarrollar habilidades para reconocer contenido manipulado es más importante que nunca. La combinación de análisis visual, verificación de fuentes y el uso de IA para detección automática permite a los usuarios defenderse contra la desinformación y mantener la integridad de la información en la era digital.

Recordemos que, en última instancia, la educación y la responsabilidad individual serán nuestros mejores aliados en la lucha contra los videos falsos y la manipulación audiovisual.

El impacto de los videos falsos en la reputación y la privacidad en 2026

La expansión de los deepfakes y su influencia en la percepción pública

En 2026, los videos falsos, conocidos también como deepfakes, han experimentado un crecimiento alarmante del 47% respecto al año anterior, consolidándose como una amenaza real en el ecosistema digital. Estas manipulaciones audiovisuales, impulsadas por avances en inteligencia artificial, se han convertido en herramientas poderosas para difundir desinformación, dañar la reputación y vulnerar la privacidad de individuos y organizaciones.

El aumento en la creación y circulación de estos contenidos ha sido especialmente marcado en plataformas de redes sociales y aplicaciones móviles, donde la viralidad y el impacto emocional facilitan su propagación. La facilidad con la que se pueden generar videos convincentes, incluso en tiempo real, ha llevado a una realidad en la que distinguir lo auténtico de lo manipulado se vuelve cada vez más complejo.

Por ejemplo, en 2026, se han detectado numerosos casos en los que políticos, figuras públicas y empleados han sido víctimas de deepfakes que muestran escenarios falsos para manipular opiniones, influir en decisiones o simplemente dañarlos públicamente. La desinformación política, en particular, sigue siendo uno de los ámbitos más afectado, con el 64% de los videos falsos detectados en 2025 relacionados con noticias falsas y campañas de desprestigio.

Repercusiones en la reputación personal y profesional

Daños irreparables mediante videos manipulados

Una de las principales preocupaciones en torno a los deepfakes en 2026 es su potencial para destruir carreras y vidas privadas. Imagina a un ejecutivo siendo exhibido en un video alterado que muestra conductas ilícitas o inapropiadas. Aunque el video sea falso, su viralización puede generar daños irreparables en su imagen, afectar relaciones laborales y incluso ocasionar sanciones legales.

El caso de Hartfield, un conocido empresario, que en 2026 fue víctima de un video fake en el que se le acusaba de fraude, ejemplifica cómo estos contenidos pueden ser utilizados para extorsionar o difamar. La rápida circulación y la dificultad para verificar la autenticidad en el momento aumentan la vulnerabilidad de las personas ante estas manipulaciones.

Impacto en la confianza y la credibilidad

Para las organizaciones, la presencia de deepfakes puede erosionar la confianza de clientes, socios y empleados. Un video falso que involucra a una empresa en un escándalo o fraude puede generar pérdidas económicas y de reputación que tardan años en repararse. La percepción pública, en estos casos, se ve afectada, y la credibilidad se pone en duda incluso cuando se demuestra la falsedad del contenido.

Además, la proliferación de videos manipulados en contextos políticos puede desestabilizar procesos democráticos, generando desconfianza en los medios tradicionales y en las instituciones públicas. La capacidad de crear discursos falsificados en tiempo real, usando IA avanzada, agrava aún más esta problemática.

Implicaciones para la privacidad y la seguridad digital

El auge de la IA en la creación de contenido falso

Los avances tecnológicos en 2026 han facilitado la creación de deepfakes cada vez más realistas y en tiempo real. La inteligencia artificial ahora puede generar voces y videos falsos con una precisión asombrosa, incluso replicando la voz y los gestos de personas en cuestión de segundos. Esto aumenta los riesgos de fraudes digitales, extorsiones y delitos cibernéticos.

Organismos gubernamentales y entidades de seguridad están alertas ante la posibilidad de que estos contenidos sean utilizados para realizar fraudes financieros, suplantación de identidad o campañas de acoso digital. La aparición de IA capaz de crear videos falsos en vivo hace que sea más difícil detectar la manipulación, poniendo a prueba las capacidades de las herramientas de detección automática.

Protección de la privacidad en un entorno saturado de deepfakes

En 2026, la privacidad personal se encuentra en una encrucijada. La utilización malintencionada de deepfakes para crear videos sexuales, difamatorios o comprometidos ha escalado, afectando la vida privada de muchas personas. Casos recientes en Alemania y México evidencian cómo la IA puede ser utilizada para generar contenidos íntimos sin consentimiento, poniendo en riesgo la integridad emocional y la seguridad digital de las víctimas.

Por ello, la protección de datos y la vigilancia digital se vuelven prioritarias. La implementación de sistemas que detecten rápidamente deepfakes y la regulación legal para sancionar su uso malicioso son pasos fundamentales para salvaguardar la privacidad en un entorno digital cada vez más vulnerable.

Recomendaciones para protegerse en 2026

  • Verificación de fuentes: Siempre valida la fuente del contenido y busca confirmaciones en medios confiables antes de compartir o reaccionar ante videos sospechosos.
  • Utilización de herramientas de detección automática: Aprovecha las tecnologías disponibles, como software de IA que analiza inconsistencias en pixelación, iluminación y movimiento, para identificar deepfakes en tiempo real.
  • Capacitación en alfabetización digital: Educa a empleados, estudiantes y usuarios sobre las características de los deepfakes y cómo detectarlos, promoviendo un pensamiento crítico respecto al contenido multimedia.
  • Protección de datos personales: Limita la exposición de tu información personal en redes sociales y plataformas públicas, reduciendo el riesgo de que tu imagen sea utilizada para crear contenidos falsificados.
  • Informe y denuncia: Cuando detectes un video manipulado, reporta inmediatamente a las plataformas y a las autoridades competentes para que puedan tomar acciones legales y técnicas.

Perspectivas futuras y la lucha contra los deepfakes

El continuo avance en inteligencia artificial y aprendizaje automático en 2026 ha llevado a un escenario en el que la detección y creación de deepfakes están en constante evolución. Mientras las tecnologías de detección mejoran, también lo hacen las técnicas para crear contenidos falsificados más convincentes.

La colaboración internacional, la regulación legal y la innovación en IA para la detección son claves para combatir la proliferación de videos falsos. La conciencia pública y la educación digital también juegan un papel vital para que los usuarios puedan navegar de manera segura en este entorno saturado de desinformación.

En conclusión, aunque los deepfakes representan un reto importante en términos de reputación y privacidad, con las herramientas adecuadas, regulación efectiva y una ciudadanía informada, es posible mitigar su impacto y proteger la integridad de la información en 2026 y más allá.

Comparativa: deepfakes vs otros tipos de videos manipulados en 2026

Introducción a los diferentes tipos de videos falsos

En 2026, la proliferación de contenidos falsificados ha alcanzado niveles alarmantes, impulsada por avances en inteligencia artificial y edición digital. Entre estos contenidos, los deepfakes se han consolidado como la forma más sofisticada y convincente de manipulación audiovisual. Sin embargo, no son los únicos tipos de videos manipulados existentes. La diferencia clave radica en las técnicas empleadas, el nivel de realismo y los riesgos asociados a cada uno.

Comprender las distinciones entre deepfakes y otros videos alterados permite a usuarios, empresas y gobiernos implementar mejores estrategias para detectar, combatir y educar sobre la desinformación. En el contexto de 2026, donde los deepfakes han aumentado en un 47% respecto al año anterior, esta diferenciación resulta fundamental para mantener la seguridad digital y la integridad informativa.

¿Qué son los deepfakes y cómo se crean?

Técnicas y avances en la generación de deepfakes

Los deepfakes utilizan algoritmos de aprendizaje profundo (deep learning) para crear videos que parecen reales. La técnica principal implica entrenar redes neuronales con grandes volúmenes de datos visuales y de audio, para luego generar contenido convincente en el que una persona dice o hace cosas que en realidad no ocurrió. La calidad de estos videos ha mejorado exponencialmente, permitiendo manipular rostros, voces e incluso sincronización de labios en tiempo real.

En 2026, la aparición de IA capaz de generar deepfakes en tiempo real ha multiplicado los riesgos, facilitando fraudes y desinformación instantánea. La precisión se acerca a la perfección, haciendo difícil distinguir un deepfake de un contenido auténtico sin ayuda de herramientas especializadas.

Casos y riesgos asociados a los deepfakes

Los deepfakes tienen un impacto potencialmente devastador. Se emplean en noticias falsas, campañas de desinformación política, fraudes financieros y hasta en delitos de suplantación de identidad. La facilidad para crear estos videos y su alta fidelidad incrementan el riesgo de manipulación de la opinión pública, afectando elecciones, reputaciones y seguridad personal.

En 2026, el 71% de los usuarios ha visto al menos un deepfake en el último año, y el volumen de denuncias por videos manipulados ha aumentado un 32%. La sofisticación de estas técnicas obliga a fortalecer la detección automática y a desarrollar una alfabetización digital crítica.

Otros tipos de videos manipulados en comparación con los deepfakes

Videos alterados y manipulaciones básicas

Antes de que los deepfakes dominaran el escenario, las manipulaciones audiovisuales se realizaban mediante ediciones básicas: cortes, insertos, ralentizaciones o aceleraciones, y ajustes en la iluminación o color. Estos contenidos, aunque menos realistas, aún pueden engañar si no se analizan detenidamente.

Por ejemplo, un video donde se recortan partes, se añaden objetos o se cambian escenarios son fáciles de detectar con atención a detalles como sombras, errores en la continuidad o inconsistencias en la calidad visual. Sin embargo, en 2026, con la sofisticación de los deepfakes, estas técnicas tradicionales se vuelven menos efectivas para engañar a un público informado y crítico.

Videos manipulados avanzados y ediciones sofisticadas

Las ediciones más complejas combinan múltiples técnicas, como añadir efectos visuales, modificar escenas o alterar el audio con herramientas de edición profesional. Aunque aún no alcanzan la perfección de los deepfakes, estas manipulaciones pueden ser muy convincentes, especialmente cuando se combinan con narrativas emocionales o sensacionalistas.

La diferencia esencial radica en que estos contenidos suelen requerir más tiempo y conocimientos técnicos, y no suelen ser en tiempo real. Sin embargo, su detección se vuelve más difícil, pues pueden incluir errores sutiles que solo detectores expertos o herramientas automatizadas avanzadas pueden identificar.

Detección y desafíos en 2026

Herramientas y métodos para detectar deepfakes

La lucha contra los videos falsos en 2026 se apoya en un arsenal tecnológico que incluye sistemas de inteligencia artificial especializados en detección. Estos análisis automáticos revisan inconsistencias en pixelación, iluminación, movimientos faciales y sincronización de labios. Además, la detección de anomalías en el audio, como cambios en la voz o incoherencias en el tono, es clave.

El 85% de las empresas tecnológicas ya ha implementado estas herramientas, logrando identificar deepfakes con una precisión que supera el 90%. Sin embargo, los creadores de contenido falsificado también evolucionan, desarrollando contramedidas que complican la detección automática.

Retos y limitaciones actuales

Uno de los grandes desafíos en 2026 es la creación de deepfakes en tiempo real. Esto dificulta la verificación rápida, especialmente en plataformas sociales donde la velocidad de difusión es crucial. Además, la aparición de IA capaz de falsificar voces en tiempo real aumenta el riesgo de fraudes y delitos cibernéticos, como estafas o suplantaciones de autoridad.

Por ello, la educación digital y el pensamiento crítico siguen siendo herramientas esenciales. La combinación de detección automática y la verificación manual, apoyada en fuentes confiables, es la estrategia más efectiva para combatir la desinformación.

Conclusión: el futuro de los videos falsos en 2026

En resumen, los deepfakes representan la punta del iceberg en la manipulación audiovisual moderna, con un nivel de realismo y peligrosidad que supera ampliamente a las técnicas tradicionales. Sin embargo, otros videos alterados y manipulaciones avanzadas siguen siendo relevantes en ciertos contextos y requieren atención especializada.

El avance tecnológico en detección de deepfakes es prometedor, pero también impulsa la creatividad de quienes producen contenidos falsificados. La clave para mantener la seguridad digital en 2026 radica en la educación, la regulación y en el uso de herramientas automáticas para identificar estos contenidos, contribuyendo a reducir su impacto en la sociedad.

La lucha contra los videos falsos continúa siendo un desafío central en la era de la inteligencia artificial, y comprender las diferencias entre sus tipos ayuda a estar mejor preparados frente a la desinformación.

Predicciones sobre la regulación y legislación frente a los videos falsos en 2026 y más allá

El auge de la regulación frente a los deepfakes

En 2026, los videos falsos o deepfakes continúan ganando terreno, con un incremento del 47% respecto al año anterior. Este crecimiento exponencial ha despertado la preocupación de gobiernos, organizaciones internacionales y empresas tecnológicas, que buscan establecer marcos regulatorios efectivos para combatir la desinformación y proteger la integridad del contenido digital.

Los deepfakes ya no son solo una amenaza a la reputación individual, sino una herramienta potencial para campañas de manipulación política, fraudes y delitos cibernéticos. La necesidad de regular su uso y distribución se hace más apremiante que nunca, impulsando la creación de leyes específicas que definan claramente qué constituye un contenido manipulado y qué sanciones corresponden a quienes lo produzcan o difundan de manera malintencionada.

Iniciativas gubernamentales y leyes emergentes en 2026

Legislación internacional en evolución

En 2026, la cooperación internacional se ha convertido en un pilar fundamental para enfrentar el problema de los videos falsos. La Unión Europea, por ejemplo, ha avanzado en la implementación del Reglamento de Seguridad Digital, que busca establecer estándares para la detección y eliminación de deepfakes en plataformas sociales y medios de comunicación.

Estados Unidos, por su parte, ha promovido la aprobación de la Ley de Combate a la Desinformación Digital, que obliga a las plataformas tecnológicas a implementar sistemas de identificación automática y advertencias para contenidos manipulados. Además, varios países asiáticos han desarrollado leyes que penalizan la creación y distribución de deepfakes sin consentimiento, apuntando a un enfoque más represivo.

Iniciativas nacionales y regulatorias específicas

A nivel nacional, países como Canadá, Australia y Japón han adoptado políticas públicas que fomentan la educación digital y la alfabetización mediática, promoviendo que los usuarios puedan identificar contenidos falsos con mayor facilidad. En paralelo, algunas jurisdicciones están creando tribunales especializados en delitos digitales relacionados con deepfakes, para agilizar los procesos judiciales y sancionar con mayor eficacia.

Por ejemplo, en Australia se ha establecido un marco legal que contempla penas de prisión para quienes creen y distribuyan deepfakes con fines de difamación, acoso o fraude. En Japón, se trabaja en una legislación que obliga a las plataformas a eliminar contenidos manipulados en un plazo determinado, bajo sanciones económicas y penales.

Desafíos legales y obstáculos en la regulación internacional

Uno de los principales desafíos en la regulación de videos falsos en 2026 radica en la naturaleza transnacional del problema. La facilidad para crear y distribuir deepfakes a través de plataformas globales dificulta la aplicación de leyes nacionales, requiriendo mecanismos de cooperación internacional efectivos.

Además, la rápida evolución de la tecnología de IA y la aparición de deepfakes en tiempo real complican la detección y regulación. La creación de contenidos falsos cada vez más convincentes obliga a las legislaciones a mantenerse actualizadas y a incorporar avances tecnológicos en sus marcos legales.

Otro obstáculo importante es el respeto por los derechos fundamentales, como la libertad de expresión. Encontrar un equilibrio entre la protección contra el contenido manipulado y la libertad de información sigue siendo un debate abierto en muchos países.

El papel de las plataformas y las herramientas tecnológicas

En 2026, las plataformas digitales juegan un papel crucial en la lucha contra los videos falsos. La mayoría de las empresas tecnológicas, como Meta, Google y TikTok, han implementado sistemas de detección automática de deepfakes que alertan a los usuarios sobre contenidos manipulados.

El 85% de las empresas tecnológicas ya utilizan herramientas de detección basadas en IA que analizan inconsistencias en pixelación, sincronización de labios, iluminación y movimiento. Estas tecnologías, además, se complementan con sistemas de marca de agua y verificaciones en tiempo real para reducir la circulación de videos falsos.

Por otro lado, la colaboración entre gobiernos y empresas en la creación de bases de datos de contenidos verificables y en la formación de profesionales en detección digital resulta esencial para fortalecer la seguridad digital y reducir la impacto de los deepfakes maliciosos.

Perspectivas a largo plazo y recomendaciones

De cara a 2026 y más allá, se espera que la regulación en torno a los videos falsos siga evolucionando, con leyes más estrictas, mayor cooperación internacional y avances tecnológicos en detección. Sin embargo, el desafío será mantener un marco legal flexible que pueda adaptarse a las innovaciones en IA y creación de contenidos manipulados.

Para quienes trabajan en la protección de la información y la seguridad digital, resulta fundamental mantenerse actualizados sobre las tendencias legales y tecnológicas. La educación en alfabetización mediática, la implementación de herramientas de detección y la colaboración internacional serán las claves para mitigar los riesgos asociados a los deepfakes.

En conclusión, en 2026 la regulación y legislación frente a los videos falsos están en un proceso de consolidación, con avances importantes pero también con desafíos considerables. La lucha contra la desinformación requiere un enfoque integral, que combine políticas públicas, innovación tecnológica y responsabilidad compartida entre plataformas y usuarios.

Videos falsos y deepfakes: Análisis con IA para detectar y entender la desinformación

Videos falsos y deepfakes: Análisis con IA para detectar y entender la desinformación

Descubre cómo la inteligencia artificial ayuda a identificar videos falsos y deepfakes, que aumentaron un 47% en 2026. Aprende a detectar contenido manipulado y protege tu información frente a la desinformación y fraudes digitales con análisis en tiempo real.

Preguntas Frecuentes

Los videos falsos, también conocidos como deepfakes, son contenidos audiovisuales manipulados mediante inteligencia artificial para parecer reales. Utilizan técnicas de aprendizaje automático para alterar o crear imágenes y sonidos, permitiendo que una persona diga o haga cosas que en realidad no ocurrió. Este tipo de contenido se ha popularizado en plataformas sociales, aumentando en un 47% en 2026, y se emplea tanto para desinformar como para engañar. Reconocer un deepfake requiere atención a detalles como movimientos faciales poco naturales, fallos en sincronización de labios o inconsistencias en el fondo y la iluminación.

Para detectar videos falsos, es recomendable revisar aspectos como la calidad visual, movimientos poco naturales y errores en la sincronización de labios. Utilizar herramientas de detección automática basadas en IA, que analizan inconsistencias en la pixelación, iluminación y movimiento, puede ser muy útil. Además, verificar la fuente original del video y buscar confirmaciones en medios confiables ayuda a determinar su autenticidad. En 2026, el 85% de las empresas tecnológicas ya emplean estas herramientas para combatir la desinformación, por lo que aprovechar estas tecnologías es clave para protegerse.

La detección de videos falsos ayuda a reducir la propagación de noticias falsas, desinformación política y fraudes digitales. Permite a usuarios y organizaciones identificar contenido manipulado en tiempo real, protegiendo la integridad de la información y evitando malentendidos o daños a la reputación. Además, fortalece la seguridad digital y previene fraudes cibernéticos, especialmente en sectores sensibles como la política, el entretenimiento y la educación. Gracias a los avances en IA, hoy en día es posible detectar deepfakes con mayor precisión y rapidez, fortaleciendo la confianza en los contenidos multimedia.

Los videos falsos representan riesgos significativos como la desinformación, manipulación política, fraudes y delitos cibernéticos. Pueden ser utilizados para difamar, engañar a la opinión pública, influir en decisiones electorales o cometer fraudes financieros. La aparición de deepfakes en tiempo real aumenta la dificultad de distinguir lo real de lo manipulado, y en 2026, el volumen de denuncias por videos manipulados aumentó un 32%. Esto hace imprescindible contar con herramientas de detección y ser críticos ante contenidos que parecen poco confiables.

Para evitar ser engañado por videos falsos, es recomendable verificar siempre la fuente del contenido, buscar confirmaciones en medios confiables y desconfiar de videos que generen reacciones emocionales extremas. Utiliza herramientas de detección automática y revisa detalles visuales y de audio en busca de inconsistencias. Además, mantente informado sobre las últimas tendencias en deepfakes y desinformación, ya que la tecnología avanza rápidamente. La educación digital y el pensamiento crítico son clave para identificar y combatir los videos manipulados.

Los deepfakes se diferencian por el uso de inteligencia artificial avanzada para crear contenidos altamente realistas y convincentes, a diferencia de otros videos manipulados que pueden ser más evidentes o simples. Los deepfakes emplean técnicas de aprendizaje profundo para alterar rostros, voces o escenas completas, logrando una apariencia casi perfecta. En 2026, estos contenidos representan un 47% del incremento en videos falsos, y su detección requiere tecnologías específicas de IA. Otros manipulaciones, como cortes o ediciones básicas, son más fáciles de identificar visualmente.

Las tendencias actuales en 2026 muestran un aumento en la utilización de IA para crear deepfakes en tiempo real, lo que plantea nuevos desafíos en seguridad digital. Sin embargo, también se están desarrollando herramientas de detección más sofisticadas que analizan inconsistencias en pixelación, movimiento y audio. La integración de análisis en plataformas sociales y aplicaciones móviles permite detectar y bloquear contenido manipulado rápidamente. Además, la regulación y la legislación sobre deepfakes están en auge, buscando penalizar su uso malintencionado y proteger a los usuarios.

Para aprender a identificar videos falsos, existen diversas plataformas y recursos en línea, como cursos especializados en detección de deepfakes y desinformación, ofrecidos por universidades y organizaciones tecnológicas. Herramientas gratuitas y de pago, como Deepware Scanner, InVID, y plataformas de análisis de contenido, permiten verificar la autenticidad de videos. Además, mantenerse informado a través de blogs, webinars y artículos especializados en seguridad digital y IA ayuda a comprender las últimas técnicas y tendencias en detección y creación de deepfakes.

Prompts Sugeridos

Noticias Relacionadas

Respuestas instantáneasSoporte multi-idiomaConciencia del contexto
Público

Videos falsos y deepfakes: Análisis con IA para detectar y entender la desinformación

Descubre cómo la inteligencia artificial ayuda a identificar videos falsos y deepfakes, que aumentaron un 47% en 2026. Aprende a detectar contenido manipulado y protege tu información frente a la desinformación y fraudes digitales con análisis en tiempo real.

Videos falsos y deepfakes: Análisis con IA para detectar y entender la desinformación
22 vistas

Guía básica para entender qué son los videos falsos y deepfakes en 2026

Este artículo explica los conceptos fundamentales de los videos falsos y deepfakes, su evolución en 2026 y cómo reconocer las características básicas de contenido manipulado para principiantes.

Las mejores herramientas de detección automática de videos falsos y deepfakes en 2026

Un análisis exhaustivo de las tecnologías y software más efectivos en 2026 para detectar videos manipulados, incluyendo IA y análisis en tiempo real, dirigido a profesionales y usuarios avanzados.

Cómo los deepfakes están impactando la política y las noticias en 2026

Explora casos recientes y el impacto de los videos falsos en la desinformación política, incluyendo ejemplos de campañas, fraudes y cómo las plataformas luchan contra esta problemática en 2026.

Tendencias y predicciones: el futuro de los videos falsos y la seguridad digital en los próximos años

Un análisis de las tendencias emergentes en la creación y detección de videos falsos, incluyendo avances en IA, nuevos riesgos y cómo prepararse para los desafíos futuros en seguridad digital.

Casos de estudio: cómo las empresas y gobiernos están combatiendo los videos falsos en 2026

Este artículo presenta casos reales y estrategias adoptadas por organizaciones para detectar y contrarrestar la desinformación a través de videos falsos, con énfasis en tecnologías y políticas implementadas en 2026.

El papel de la inteligencia artificial en la creación y detección de videos falsos en 2026

Analiza cómo la IA está siendo utilizada tanto para generar videos falsos cada vez más realistas como para detectar y prevenir su difusión, incluyendo desafíos éticos y tecnológicos en 2026.

Cómo identificar videos falsos en redes sociales: consejos prácticos para usuarios en 2026

Ofrece recomendaciones y técnicas prácticas para usuarios comunes y creadores de contenido para detectar videos manipulados en plataformas como TikTok, Instagram y Facebook en 2026.

El impacto de los videos falsos en la reputación y la privacidad en 2026

Examina cómo los videos falsos pueden dañar la reputación personal y profesional, además de las implicaciones para la privacidad, con ejemplos recientes y recomendaciones para protección en 2026.

Comparativa: deepfakes vs otros tipos de videos manipulados en 2026

Este artículo diferencia claramente entre deepfakes, videos alterados y otros contenidos falsificados, analizando sus técnicas, riesgos y métodos de detección en el contexto de 2026.

Predicciones sobre la regulación y legislación frente a los videos falsos en 2026 y más allá

Analiza las tendencias en regulación, leyes y políticas públicas para combatir los videos falsos, incluyendo iniciativas gubernamentales y desafíos legales en el contexto internacional en 2026.

Prompts Sugeridos

  • Análisis técnico de videos falsosEvaluación de indicadores clave para detectar manipulación en videos falsos en plazos cortos y largos.
  • Detección de señales sociales en videos falsosAnaliza el sentimiento y la percepción social frente a videos falsos en redes sociales en un período reciente.
  • Análisis de patrones de manipulación audiovisualIdentificación y comparación de patrones comunes en videos deepfake y manipulados mediante IA.
  • Predicción de crecimiento en contenido falsoProyección de tendencias futuras en la creación y difusión de videos falsos usando IA.
  • Estrategias de detección de deepfakesDesarrolla estrategias tecnológicas y metodológicas para identificar videos falsos en tiempo real.
  • Oportunidades y riesgos en videos falsosEvalúa las oportunidades y riesgos asociados con el uso de IA para crear y detectar videos falsos.
  • Análisis de impacto de deepfakes en políticaEstudio de cómo los videos falsos afectan la percepción y decisiones políticas en los últimos años.
  • Análisis de fraude digital por deepfakesIdentificación de oportunidades de fraude mediante videos falsos y técnicas de IA actuales.

topics.faq

¿Qué son exactamente los videos falsos o deepfakes?
Los videos falsos, también conocidos como deepfakes, son contenidos audiovisuales manipulados mediante inteligencia artificial para parecer reales. Utilizan técnicas de aprendizaje automático para alterar o crear imágenes y sonidos, permitiendo que una persona diga o haga cosas que en realidad no ocurrió. Este tipo de contenido se ha popularizado en plataformas sociales, aumentando en un 47% en 2026, y se emplea tanto para desinformar como para engañar. Reconocer un deepfake requiere atención a detalles como movimientos faciales poco naturales, fallos en sincronización de labios o inconsistencias en el fondo y la iluminación.
¿Cómo puedo detectar un video falso o manipulado?
Para detectar videos falsos, es recomendable revisar aspectos como la calidad visual, movimientos poco naturales y errores en la sincronización de labios. Utilizar herramientas de detección automática basadas en IA, que analizan inconsistencias en la pixelación, iluminación y movimiento, puede ser muy útil. Además, verificar la fuente original del video y buscar confirmaciones en medios confiables ayuda a determinar su autenticidad. En 2026, el 85% de las empresas tecnológicas ya emplean estas herramientas para combatir la desinformación, por lo que aprovechar estas tecnologías es clave para protegerse.
¿Qué beneficios aporta la detección de videos falsos en la actualidad?
La detección de videos falsos ayuda a reducir la propagación de noticias falsas, desinformación política y fraudes digitales. Permite a usuarios y organizaciones identificar contenido manipulado en tiempo real, protegiendo la integridad de la información y evitando malentendidos o daños a la reputación. Además, fortalece la seguridad digital y previene fraudes cibernéticos, especialmente en sectores sensibles como la política, el entretenimiento y la educación. Gracias a los avances en IA, hoy en día es posible detectar deepfakes con mayor precisión y rapidez, fortaleciendo la confianza en los contenidos multimedia.
¿Cuáles son los riesgos más comunes asociados a los videos falsos?
Los videos falsos representan riesgos significativos como la desinformación, manipulación política, fraudes y delitos cibernéticos. Pueden ser utilizados para difamar, engañar a la opinión pública, influir en decisiones electorales o cometer fraudes financieros. La aparición de deepfakes en tiempo real aumenta la dificultad de distinguir lo real de lo manipulado, y en 2026, el volumen de denuncias por videos manipulados aumentó un 32%. Esto hace imprescindible contar con herramientas de detección y ser críticos ante contenidos que parecen poco confiables.
¿Qué mejores prácticas puedo seguir para evitar ser engañado por videos falsos?
Para evitar ser engañado por videos falsos, es recomendable verificar siempre la fuente del contenido, buscar confirmaciones en medios confiables y desconfiar de videos que generen reacciones emocionales extremas. Utiliza herramientas de detección automática y revisa detalles visuales y de audio en busca de inconsistencias. Además, mantente informado sobre las últimas tendencias en deepfakes y desinformación, ya que la tecnología avanza rápidamente. La educación digital y el pensamiento crítico son clave para identificar y combatir los videos manipulados.
¿En qué se diferencian los deepfakes de otros tipos de videos manipulados?
Los deepfakes se diferencian por el uso de inteligencia artificial avanzada para crear contenidos altamente realistas y convincentes, a diferencia de otros videos manipulados que pueden ser más evidentes o simples. Los deepfakes emplean técnicas de aprendizaje profundo para alterar rostros, voces o escenas completas, logrando una apariencia casi perfecta. En 2026, estos contenidos representan un 47% del incremento en videos falsos, y su detección requiere tecnologías específicas de IA. Otros manipulaciones, como cortes o ediciones básicas, son más fáciles de identificar visualmente.
¿Cuáles son las últimas tendencias en detección y creación de videos falsos?
Las tendencias actuales en 2026 muestran un aumento en la utilización de IA para crear deepfakes en tiempo real, lo que plantea nuevos desafíos en seguridad digital. Sin embargo, también se están desarrollando herramientas de detección más sofisticadas que analizan inconsistencias en pixelación, movimiento y audio. La integración de análisis en plataformas sociales y aplicaciones móviles permite detectar y bloquear contenido manipulado rápidamente. Además, la regulación y la legislación sobre deepfakes están en auge, buscando penalizar su uso malintencionado y proteger a los usuarios.
¿Qué recursos o herramientas puedo usar para aprender a identificar videos falsos?
Para aprender a identificar videos falsos, existen diversas plataformas y recursos en línea, como cursos especializados en detección de deepfakes y desinformación, ofrecidos por universidades y organizaciones tecnológicas. Herramientas gratuitas y de pago, como Deepware Scanner, InVID, y plataformas de análisis de contenido, permiten verificar la autenticidad de videos. Además, mantenerse informado a través de blogs, webinars y artículos especializados en seguridad digital y IA ayuda a comprender las últimas técnicas y tendencias en detección y creación de deepfakes.

Noticias Relacionadas

  • Aumentan las estafas con voces de familaires y amigos: el desafío de verificar identidades frente al avance de la inteligencia artificial - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMihgJBVV95cUxPbXVxNF9CSjZvZUZzYjJLakVWWU04NHJFVTBTamNnNEZEcnVMeE5fSDJtazdST0w1Z0x1NjhLNW1jUnRzZ2RuMWp3TlJwX0ItWGVsY1dNemowOW5nc3hBdlBKaDhJUUJxVmdlMHVfV2xLUldPVkZuTWIwQkhKcnQ0a2JNNWM4aVFaR19CZDU4N0xUbHBtTVc3bHNicVBLWkR1c05HaTBMeDFYOFRXNXFGVkNfdFNpVGVqWTZFSVExSFFlR3d3V19KbENZWDNiZGp4eTY1NnZrNlc3YWhJdk9LLWVhc1o1QVo3V2hyTkpRdE5Nb2xQSng1TkZxeXFSNDRxeG9xa0NR?oc=5" target="_blank">Aumentan las estafas con voces de familaires y amigos: el desafío de verificar identidades frente al avance de la inteligencia artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • Hartfield anunció demanda contra Gervasoni por video fake en su contra - La Voz de MisionesLa Voz de Misiones

    <a href="https://news.google.com/rss/articles/CBMisgFBVV95cUxOVjFETkJsNW95eTM4SDlIZUJQcTdVeGVqdWRSOTExVXc5RGN6eGoxWHhEQWJDT1o3d012amtsc214UFZFSG5sZ2U5bEN0NEhnQUdaaHlIcW1VaGVEcVFUZ0YwdENfbS1XcUR3WVZCdERYVDh2R2k3aDNnOURmd3hBdEduQ2pDODNCUTgyRXhQbW44Nm0zYTlHSjBGRkF3a19UdXktS3RMUEJWdW1pbUhZLTNn?oc=5" target="_blank">Hartfield anunció demanda contra Gervasoni por video fake en su contra</a>&nbsp;&nbsp;<font color="#6f6f6f">La Voz de Misiones</font>

  • Miles caen en la trampa de los perros que eligen dueño: así funciona la estafa con IA - El CasoEl Caso

    <a href="https://news.google.com/rss/articles/CBMitwFBVV95cUxNSWJmcmN4ZEpyUm1IUEhRYkljQ2FpT0p1OG9PcGxKa0xuQUhLOElUNjA2TzAxMnMwdTd1R0RCV2tnOVlJYkpnVDFhZHZ5dTJianBxc2MzRGpybWZWMFF5dGc5eXNNS0dCOGpWUUdNNHpCeHpqdXNQZGZ4UjdrYWJDTjJpWDBwMnEtX19WWllwMlpMRVF2RGlqRnZWd1lYdVo1RUZjaTNqd05oLWUxUENKY2tLV25RTGs?oc=5" target="_blank">Miles caen en la trampa de los perros que eligen dueño: así funciona la estafa con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">El Caso</font>

  • No, Apple no va a lanzar su propia versión de la "Privacy Display" de Samsung, pero los vídeos falsos que se han vuelto virales son muy convincentes - TechRadarTechRadar

    <a href="https://news.google.com/rss/articles/CBMingJBVV95cUxNa3Z5S3J0aGNJSmhoWi1fQW1QOE9tQ2xHcENhWmpfblBuS29jR1JESkZhNVBkWXVFWV9XYi1udTVWTDZXUWpsT1A0aVZnZVRlUE5WYlRoS3hSZXRMQXlSalNQekpfa2dEMGtKZlJLTXNuOFlEbUY0TjYzOC1uZFpXRV9kRll1bENiMU1XVldmZi1SanBOenJrb292dUhUVlYxVTY4TVF6TnpOSDJCMU1iLW1YTjVjZGdQZk5xUmZuUGJnUEpmRnYxdjFidm85eGk1NklWYWFhNjlUQWNaMmFMN3pCRDV1NkNnUHZNb0xTMzJkRXVSRlZXakhMTTZqa1VuaXBoNzNzdzVNUW9pRThoYzFOTHBXNGNUTjMwMktB?oc=5" target="_blank">No, Apple no va a lanzar su propia versión de la "Privacy Display" de Samsung, pero los vídeos falsos que se han vuelto virales son muy convincentes</a>&nbsp;&nbsp;<font color="#6f6f6f">TechRadar</font>

  • Revuelo en Alemania por caso Collien Fernandes: la actriz acusa a su esposo por hacerle videos sexuales con IA - oem.com.mxoem.com.mx

    <a href="https://news.google.com/rss/articles/CBMi7wFBVV95cUxPeTlZclBuZ2YxWTRzNXI4eXl5TzJoUm04cW9jQ1M3VVhaNklpbFNUVzhTdlUzX3k1ZWRQZ2JQSk1sS1o2RjZZWjlwMm5tcExiNTZ0cFI3dHFtRTdEZ0dZNGxzdkNyMF9zTUZiNS00Y3JxWTFmLW1yZ3pWX1ZDYy1EaDRscVZRZzhObzBsNUVhMmVPVk94bkNWRW9WVThlYTBxUzR0ZjVIMF9FOGlNczFGN0dCV1pYOFVIU0NqY2g1OEIzZW5CYkRJQ0NDSEFBS2hRUHBVX0k3MU1TVWIweVpzUkhqMS1NTldHWVhtU0FlUQ?oc=5" target="_blank">Revuelo en Alemania por caso Collien Fernandes: la actriz acusa a su esposo por hacerle videos sexuales con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">oem.com.mx</font>

  • ¿Por qué se comparten videos falsos con IA en México aunque la gente sabe que son mentira? - verificado.com.mxverificado.com.mx

    <a href="https://news.google.com/rss/articles/CBMic0FVX3lxTE53UXd3ejdhUmRGMnoteDE3UGJrRHJadS1PZzllb1dyT0JJSUlhVmFMWFVMY0Y3TUxvYmhYUWt1TFFzektPWDhFcmpsZkEzRUQ0QW96TnJGdmZnTGhib0wyWE44VnB6dlhHeTBPN3BFZjFwaGc?oc=5" target="_blank">¿Por qué se comparten videos falsos con IA en México aunque la gente sabe que son mentira?</a>&nbsp;&nbsp;<font color="#6f6f6f">verificado.com.mx</font>

  • Alemania marcha en apoyo a actriz víctima de videos porno falsos con IA - crhoy.comcrhoy.com

    <a href="https://news.google.com/rss/articles/CBMinAFBVV95cUxPVVd6STl3WjNBRG04bElWNTJHaEJsU2tVLXhGYXpVTnZiTDg3VVM4MlVlVlJVejRiTDJSS2x5RnYtMndFQ3d0RDYyYlMyOGNUR292SDg1ZVQ5OVBCamNLLXduMGhtWmtkMmxkOVRvNnlWN1ZjcWtCMEtVMjlXMkhESTF0R0VIM3llVzJsa043dHB2RjRNdks5UnRSWk8?oc=5" target="_blank">Alemania marcha en apoyo a actriz víctima de videos porno falsos con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">crhoy.com</font>

  • Actriz denunció videos pornográficos falsos con su imagen: Su marido resultó ser el responsable - Cooperativa.clCooperativa.cl

    <a href="https://news.google.com/rss/articles/CBMi4wFBVV95cUxOWFUxVzNDSVlRM3Z2SVVmbV9WZ2FKZ0VPZ2VMd2w4RDBqcEtOYS1nZG1XSlZvc2ZCdlAzclJqT2NEMHNUaWtpMkF0Q0VRb0lSRzc5cWR4ODJhdktiNjhBbFEwUzNJZkt0QzRTYVhFRDhpOGR2VjUyX1lyeUpjNktxTkNtQzRwRWNpYi0tU05tZ2hkM2dLeTNITVc5bXFVT1VaRVdaa3Fod1dERmI1d0dEblBaZG1VYjBPLWdRNC1STUZrM29TeTYtbUZRWFI0LVc2YVJDNU9Rajk1M09ONE9sQWM4MNIBjAFBVV95cUxOUlp5WDBpQ0ZqWVE1M0k0SkZHTzhNRkxGTmF3akFMalowMWpveUxsTkxrc3BwOXpWLWxvMDBTeklOUWdGVDF0eUFqMjRwb2N0aW5Na0c0U1pFSjBxU3hGbTF4eXNhaE9ZWnBaZG03ZmxIdkFCTEhpU3piVnhlSjFJY2lGMU9xVjlIR3l4TQ?oc=5" target="_blank">Actriz denunció videos pornográficos falsos con su imagen: Su marido resultó ser el responsable</a>&nbsp;&nbsp;<font color="#6f6f6f">Cooperativa.cl</font>

  • La actriz Collien Fernandes denuncia a su marido por difundir fotos y vídeos falsos de ella desnuda - antena3.comantena3.com

    <a href="https://news.google.com/rss/articles/CBMi8AFBVV95cUxONFhuSldEa0ZlWm9XZ1ZLNVBrSEFyR3BoWWp6YWY3RzZVYl9qY0g5OWVSU2VZOXhkTXJwc0FRNUFxc0lUWm1wc085eWd2NWpiUTdBNGUwQTFFdHBwVm93VlZsSkNSX2NZaXdjeGhUOW80NzFGZkI0blA1ajk2WWVTUTQ0ZmQ3OS1WSm5MOEIxSXNLQlNfR19nNElGdE5aekd1Zm11YmxwMkJmOUJDVG5aS052Z3kxeGFjWGNZX29hOTZDY0w2RlAtNF90akFLaDE4WHc4NW1tZ2k0VXZ6NS1NTGp0cmItaEFzaDg4UWU5bnbSAfABQVVfeXFMT2ZZNkF6d1AtUlZPRzVxMEFQN2l4UXd0OUstN1dvZVhCV2ZXc1pTLUVLNmVHWGhoLWFxUVM0Zlh6RTJVbXdUclp6ZV9Hb2tvWW55aEwxNmtxV1hzTWRHeXdVNTBQY2NCTTVNWWNaVGc3MkotSXVqVm1yY0l6elFEeTBhMWRFSjlVXzRoTHNhLVdKNkZJWlBCSTY2bTRpeGR5VXNHanotOGRtempEWG5RdDFTOUllMFU2d2ViZWtBRnNXcmI3UTZUc2lMQXN6YzVib2tXbEI3cHY2Zk1EQklYLUJwTzJSNUpJOXdLY1otSnlX?oc=5" target="_blank">La actriz Collien Fernandes denuncia a su marido por difundir fotos y vídeos falsos de ella desnuda</a>&nbsp;&nbsp;<font color="#6f6f6f">antena3.com</font>

  • Estafadores usan videos falsos de Mario Hernández para promocionar plataforma de inversión ficticia - Forbes ColombiaForbes Colombia

    <a href="https://news.google.com/rss/articles/CBMizAFBVV95cUxOeEx3OGlxd2JHdHdrUHJkRURPUE53d0N1SDExeWNLN2QyQ09rOWY4WVVJYVZ0aXFLWGpLVHhhMzhSbzZnNkVzR1Y1aXdhSGRiTDFLLWdVR2VJTy1IV0d3V3RLLU9DcE90dGNqUmZHM2NYdGZUS3JjX3BkQ1gwT2lkS0hpWHkxNTVHUjlDWFVfYW1DM0hhODJZUzdtOVQwamlzaTA0SnFtMmVBYmxCa3lYQ2UxMExQUkVodXZBcDZrLXBuWUplc1lBUmxWN04?oc=5" target="_blank">Estafadores usan videos falsos de Mario Hernández para promocionar plataforma de inversión ficticia</a>&nbsp;&nbsp;<font color="#6f6f6f">Forbes Colombia</font>

  • Más de 90 cuentas en redes sociales integran una red de falsos noticieros a favor de Delcy Rodríguez con conexión argentina - ChequeadoChequeado

    <a href="https://news.google.com/rss/articles/CBMi9AFBVV95cUxOSk40THc2M19tRWVpd2NmVGJ3MzdhQWRsSWt2WHdtTWh0bVlSMVJXb0NyX0MwTW1RZkVUQXQ0VGgzREJaVFBXM3hXYzVUN3BLRjZRdkdtb0xuUnlDSk9kN01zS2dwV0hXeFg1QmkzX1pjN05yblFIQm05dDRtUV9PRUNMX21DN09XYldja0JReXlxMnV5eWZrSVlFU3hacTNiN3I3MGlDazZiVktGWHFXWXpWZ253bU9ZVVh2cEFoaTNobE1IR2FyWjlrZlI1d1M1TXZwbUVTbU5HMWNqeHFJbkhYb1lHeXVsVHZ6V3VJbG1vdXE0?oc=5" target="_blank">Más de 90 cuentas en redes sociales integran una red de falsos noticieros a favor de Delcy Rodríguez con conexión argentina</a>&nbsp;&nbsp;<font color="#6f6f6f">Chequeado</font>

  • Red de falsos noticieros inundó YouTube con propaganda a favor de Delcy Rodríguez; así usan la IA para difundir propaganda chavista - eluniversal.com.mxeluniversal.com.mx

    <a href="https://news.google.com/rss/articles/CBMi_AFBVV95cUxORzJRdlBxaUt6NGxaWE5nUk9vbzZJeUJYbi1OLTRPdGk1WkNxRG5LenVKOVZTMVU0RXNHNVpyUWJpcVpXSElldHlkalhORDBfMmhabGUxWHhCRld1a2s3bFdzRUFka3NnZUcya1p6WEcwTU9mOTE2Y3p1cGJLcktEbnRpR1hwcTlxQ0VHbjVYLUxaQWtRMlRYZEp6WFpndUdzZlowckZXb1I2eDhwcV9OTU9PV2ViQW42UzJuaktaRVhIekU3NXpwdXlkUmNFa19SekloWXVqam8yNkpiX2dFd0tpamxmV0ZJRDV5ZDFXa3FuWkdqZjF6VDd5dzHSAZACQVVfeXFMTVJNbDVMSTI0b1NoRUJxZE14WEZ1LTlKNnh0LTY0bms3ekM1S3FLYVVMc3dpbXN5aHZHRHR0Uy1paVB6VHFGME5HWDV1amRoOGFWS2c5Q1N2Zk94SzVITmVoLTNJQkJxQ1FLREU4NnVzaEVqQkVaMElPaWRxWUJFcTRPRlV5Ry11cXBacFJ6OVZyVFhnOWZvVnRjdDB2ZlpNRFpubl9LdUJ4MGJqdHJvOVRkVEVrUXFDRS1YVmtxczRRbTMzZ2hGS2t2Zmh1enh1bDVKNmx6c2VuQmZiS2ZIV2VENUgzZ1JsNUlFaHNTcXA5NVBxZTRac25UM016eVgtYnRYUjJXb0dBeGZrR2N2RlA?oc=5" target="_blank">Red de falsos noticieros inundó YouTube con propaganda a favor de Delcy Rodríguez; así usan la IA para difundir propaganda chavista</a>&nbsp;&nbsp;<font color="#6f6f6f">eluniversal.com.mx</font>

  • Cierra 'Sora', la IA de que llenó Internet de vídeos falsos, y OpenAI rompe su acuerdo con Disney - LaSextaLaSexta

    <a href="https://news.google.com/rss/articles/CBMi9AFBVV95cUxOeU5GYnNmUnhVRU9LTTJuN2MyQUkzSzhxVGtBU1ZKMkl0anNBem50UmQ4YWNNU0cyZGFSYmlNRFNZd3dJeTFRRnppSFhkRDZKYlhUaHFMWEtZV3JFNFo1QW02dE1ieS0yZFdGTUxxT0RvMmljNXZBSDE4Mm1aY2c1YXg2dkEzWFdzZmU1MzdoQ2FIUVA0MHZrQ1N4dEJ1N0ZlVE9vWXdvRFRMZDB4ZTZRcG1GOVBrQ0tXX3VTbXB5SklJcFVhSjNVVnc4Q2g4Z20tVFNrQUxtOXZkS2kzeHAycnZpWWFsbTdJWktiaVJjY05rX1hS0gH0AUFVX3lxTE84OE5CRmZTT2VKRktpWGRhclp3ZzgyMzd0NkNkcU5KNWczb0htcWU0dm05RHQ0ZHZqaDZPaUN0V3psOVFVSEh4VWowSFpjZGRIUFhIa3M0MS1OMjEzYVZ1ZDM1bGFndnM1cHBUR3NNdmZWUDBPOEE1eHNsOVVOMW81QnVoeEhFVUVfNlFnVmltaGlHanNOSDdlMW1vR2NEd1phdUtTdjVIeXNkTVBWeHVCZGhkX3ZOR1dSXzhwb3ZaUnFxRk1RR0RVbnFhN0RLNWdsck5FbWl4V0JiR1Z0SmJqU1hnS05BM0YtVUxhd0d4UjlqMHE?oc=5" target="_blank">Cierra 'Sora', la IA de que llenó Internet de vídeos falsos, y OpenAI rompe su acuerdo con Disney</a>&nbsp;&nbsp;<font color="#6f6f6f">LaSexta</font>

  • Los vídeos y las noticias falsas de la guerra - La Voz de GaliciaLa Voz de Galicia

    <a href="https://news.google.com/rss/articles/CBMiyAFBVV95cUxNMW1WN0NMN0Zvd29BYnpGNGxSd3hWY2lpU0ZMSVBlakFneWY5UE13TWc1cWxRSW1WYjVfVVZkUVVDSHBwRm8wOGJ0d1pOdEZ2N3JzY1hfWllMcnJuN1djY29QUDRQNmQ5R1BRME1JSmtWOGpVV01EQ0dCcm1za0RZdWJnZVBReEVGb1ZzZzRCTlZ2YXBsMmtKRkJBcmZtWDEwU1lTSUk1UnVBdXBlOXNGMHZpOWplYlhPWlZvS2t4aDdFbVVtaEJTWdIB5AFBVV95cUxPejRhR1d1TlFiVTk4d3psbWltTlZURExBZmZ5b1dsckVOTHdfNm1vdzBlczhuNDNPNnhONmc3cVRlOWZ3R3kxblF0ZG04WGluUENpTEtHZDhaMDl4MEwyaW9kcWxRQ19LYzU3bG56azNTemlPNUJudTZLcVRfa01vUDVNVVZyV1FvSS1XVVZxRjU0WURib01WaE1tWldXQnR2b0FFblBabWNDT3JIcVFOR1dCTDNYWUk0dDY3N3RHaEpTOU9VZkJmcVM5cmdoM1NBNEUyVE5nSWJBT29UWFVNemNJWUo?oc=5" target="_blank">Los vídeos y las noticias falsas de la guerra</a>&nbsp;&nbsp;<font color="#6f6f6f">La Voz de Galicia</font>

  • Red de falsos noticieros en YouTube paga por llegar a los venezolanos con propaganda de Delcy Rodríguez - verificado.com.mxverificado.com.mx

    <a href="https://news.google.com/rss/articles/CBMifkFVX3lxTFBjQk1qdjJWZVVGeXk2ZXA2QldLWVg5TWxWMEwwcmhKakplcUpEb0VDS0J2QlJ6czdPZGEtdXpnSVVPRkdHaDdIeWF4WC1DYk5FeUVWT081YzJXRU9CMkprTXJuOHVxZVBIYlJBdjBYMFhxVC1vb1FuYmpaQU1oZw?oc=5" target="_blank">Red de falsos noticieros en YouTube paga por llegar a los venezolanos con propaganda de Delcy Rodríguez</a>&nbsp;&nbsp;<font color="#6f6f6f">verificado.com.mx</font>

  • Falsos noticieros en YouTube: una red con actores en Argentina pauta propaganda a favor de Delcy Rodríguez - ChequeadoChequeado

    <a href="https://news.google.com/rss/articles/CBMi3AFBVV95cUxOSEtHMlVnZ1Fqd2FEX1ZJMUpQU1FpZ181ZWo0SnN2Q1FCMDZRVUtVbnNINnFRdmRGZHREUTNIZ1F3T0ZiVWRuczM1VERDZV9SSHJaLXg5dVJQZUdfSGg4S1VRekVsRk4xWXR5dVktYy1PTF80aS1jSXVQazVqU1JDUEkzV3J1ZV9zcWpYbXpwUGVxNzc2NlR4Nk5XUHpjRC15Qmk1MFJMZnplTDJfLTVOdUY3UUFrUnFzb1l1UF9ZZGY4elFGbWZpeWpLVUs5NG4tZE1UUVRhZk84UE9a?oc=5" target="_blank">Falsos noticieros en YouTube: una red con actores en Argentina pauta propaganda a favor de Delcy Rodríguez</a>&nbsp;&nbsp;<font color="#6f6f6f">Chequeado</font>

  • Falsos médicos hechos con IA inundan YouTube con desinformación dirigida a personas mayores - La VanguardiaLa Vanguardia

    <a href="https://news.google.com/rss/articles/CBMi5gFBVV95cUxNWkRiR3k5M2lYNGYwamZWMmdNSm9kcUxPUElBRXdrbFNzTGJHLVRINHA2bllaV1ZnekEyRVpicG90Q1BoSzRKcXJfT3dYOUxURmljWGdQd2lkMzZGRlVWZDlkQTZJM21RUkdxNVhXREIzSVNiWTk4bjR4aDJ1SE5DUVdTd1hmajJaa2pIS0FLbTlNZWFISGZkVU0tTThrLW9acTBBOFVGQU9QZUU2MHVqdWpMZExEY1g4RU1xaVNta2NlTmhQSTlobTFoVmMxbnJBUFNiRDlXQXpGblNpSzVKN2tjd0NRZ9IB6wFBVV95cUxQVjIwSlhVbVFOZ1UtZVhuYTZkUjhpcWJhZk5LckthQklvcUU2Nk5WeGNrTWhobTAzVk55RnhMM2tZd3RUR2pwN2JJa0dCQXN1X184aEQyOVlNYjQwdjJvSDJKa1RLNGJHT2p4ZEVwenZua3I3WExfbldOb0l4Z1A2UEpVbXVySkU0bTIyaS0wV2ZrMnM1VDF1TWdBV2JINktVdXRfT2xINzI4aDBHQUFyU0F0cTR5SG85dmNXc21WenRFWmhldFF4dmctdjR5TkgwbmhJdjdrcG9mZVNvdmwzaldmdnp4RV91Vks4?oc=5" target="_blank">Falsos médicos hechos con IA inundan YouTube con desinformación dirigida a personas mayores</a>&nbsp;&nbsp;<font color="#6f6f6f">La Vanguardia</font>

  • Un vídeo ultrafalso y otros bulos que difunden la falsa muerte de Netanyahu - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMingFBVV95cUxORjlDdXdhb0ZyaWp0OHFPcTVKT3E1UEZiMm1YOEh6WEVkZW9SWl9tV1JWSWR6LXgxdDVHdUVxTXRHZjFYZ1paR2JFb3o3V3Y1eklOZ1ZZQUNmdWdDU1owSWpZYXdzbnRoWmtkYVJVbWlwemx0am43MWFJZmUzZkNjelNhLTJJaGJpOThqQ2VNNWV1S2Q4a1o5TFBoMzdIZ9IBngFBVV95cUxOYWRvbGRHZ3NmRno0VDhkRHJhSWdUNDEydklvRkhhN1BFSHNkQlVscWV0enVUYlcwVzk2bDdSVllZZ1RJcUc2S05tVTNVRW04VWt4N2VfZkFzMV9oS20wQjRQSTRLa291ZkhEb0UtZmhCdUxNYUIzYXVPUW8yQXBPOC1XdlhLMGRRQ2gtbnVpeXVxei1zcTRQVlg5ak1IUQ?oc=5" target="_blank">Un vídeo ultrafalso y otros bulos que difunden la falsa muerte de Netanyahu</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • Los expertos avisan de la proliferación de vídeos de consejos médicos hechos por inteligencia artificial - Mundo DeportivoMundo Deportivo

    <a href="https://news.google.com/rss/articles/CBMi5AFBVV95cUxOak9UemJRZDl4VVUzc1NNYkdiWVlidkZ0ejNJazZxYnJub3NQNTlnU1lQdEtJeXFaU0c1TkM2TlRsb3BDajRiT3RJMXN5WUxyS044TGFWRTNIbWN5SGdyQzVvYmVSWFR3VWVVZ1Z1d2dKWGpheDhMRkNUT3JpemdUcC1EdmFFRkt3am83dkp6dkR0UVhjY1p6SEdEdFF4ZXBvYTNSdmluUTYtZUJ3YWRFZGhscjV1el9vUVJ3bWV4bW5HaUFlU0NpTEhDR0JGbTYwTWdFd2xWVy0wSno3bC1kd3F1LXfSAfIBQVVfeXFMT1BwdFRRN3FfRE9RTXhBUk5lYmNSX2JCU2VXSjdZQWpQN3VhMUViSXlJaXBUVUNTU3ZRUDYxLVlTelo5OVdVTDNOM2lLMEViQnJ5bmZRVW94TXd4TDVXU3RMdVhzZ2VzQndjLXlVQnh0QXlPU1p1SXpjMWNSYXNhQW1TMHcydTVvbDJ0OFpWS1puVmlxWHpiTUF3d0d3cFYtZ3U0aXo1OV84NGpmcTdfeDd0dGpLU192Ti1Fa3FJd1dBclFoMllHWFVOZTZOeUlRSkxja1RoZ01yX3FVMjI0RF9vZ3hKT2txUlo4M3Z6WnllMlE?oc=5" target="_blank">Los expertos avisan de la proliferación de vídeos de consejos médicos hechos por inteligencia artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">Mundo Deportivo</font>

  • Señales clave para detectar videos falsos hechos con inteligencia artificial - FM MundoFM Mundo

    <a href="https://news.google.com/rss/articles/CBMiqAFBVV95cUxPcF8wZWdQVGNHMlQtWWNSSGpSS3ItenYzYmxQVllNeHZCcUVBSXZkb1pYVnI4Z29ZYk52LTZrNzYzaGFQY0s1Tk02ZWZfOWJSanJvSk8tUGdQenZBb2hhbi1fcVNzLUlsUHp1cVVjdGNhZ3RWWGcxNjJtNXduRWowUUNIOC1WTVFRenZXMmlzdHI1WTdZeE56ZGk1aWp1dW45cWRJX1Fha1c?oc=5" target="_blank">Señales clave para detectar videos falsos hechos con inteligencia artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">FM Mundo</font>

  • No son ataques iraníes en Tel Aviv, estas imágenes son falsas - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMipwFBVV95cUxOdXFhMXhSdWtlZUMwSlJIcUVPMDFYUGRsWTNTQmVOQ081WmtmZXU4Q0ItYllPV1kwOU5wclVvQUxqN0J2ODJsNkwtTmlyRjR5Uk9WaEE0OFFSODVVYjY4ZnYxbUgySWI0bUtiY25kcVdxaEJySDgxMXI3cERwQ3VEUUsxdkFhRlpwYnctaHBhMTlZcFVibk8yZmpnUV94Rkg5OVl3RGd4UdIBpwFBVV95cUxOWlNJY0QzMXJkOXFCLUxwbGdwcDd5cHdGYjl1OXRXaG1zREVLZnRTNkl0aVJNSzJ4Yks4RTFvRHBORGdtRUc0OGlmM2hKZFZRU3pyZ1VBcHdoTTNUcGZnUy1ZUnc1N0dLcWJTUlFYSDAtamxEY290ZDl3NlBVZ1ROZWRHdjF5Z2JVZV9nVEMycGlfeURTNm1EVENWbEdaRDlLX1dWaFhpMA?oc=5" target="_blank">No son ataques iraníes en Tel Aviv, estas imágenes son falsas</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • Este vídeo de Benjamín Netanyahu es real: no está hecho con IA - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMirAFBVV95cUxNNEVkRHFieWl6VTJ0aXo5MHVXdVR6STJYMUcyS0ZNckx6ZXZkdlIxSERkcGFiM09SdmxtSk9aTW5oREthWmVOOGpEVzJnM0syVmRBTGlXQkc4dXJfOEJ5NTF2d1J1b0V5M2dNcG5VOS1DVl9zZC1Ld2dlbVVLZ3ZrV0JIOVhqV3BLSW51VVhmNDlTZ3pYcFZJZWZxcjgzTjZ3T0xTVFNfQXZLQWw50gGsAUFVX3lxTE1GWnczejM4dWNNMF9relp4SHk5S0VPRnVDMDRkRlRaODRWQW05RDRqTFNiUmtZOUFrRzZ4VFF3VS0wSGJFeGVyRGxWOFpvdkJTb21uUTZwOUlBNGlld0VlRGw4NE9MTHpKUVNtQkUtcjJ3MThIUjZ5X04xTVNWVU5KN2M0VHlwNmR4MFVLTGFDbWdvRGJ1TE9tM3k4emlkS3pWWG52NXlRaENWbzI?oc=5" target="_blank">Este vídeo de Benjamín Netanyahu es real: no está hecho con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • Valerie Wirtschafter, investigadora: "Los vídeos falsos de IA sobre la guerra de Irán no son solo desinformación, son literalmente una herramienta de guerra" - huffingtonpost.eshuffingtonpost.es

    <a href="https://news.google.com/rss/articles/CBMihAJBVV95cUxPMFVSNzdXMlp4QktTNDVpcGFaM1hLaV9JbmxjTXN2OVJUNW00dXJYb01EZVM1RmhrM2hxRVpHZWJ4MGhMUzU4VWFkTTM5V3R0eFFHaVo1OVJYdG41Qm1ad0VvQ0dWcGUtbG1aall3eTA5V2VlcThpYUVydXYxVVN1T0J4aEVmZWE3aXN6amZ1S05zNGxldWp2NXpfcXV4NU1oMUFQeXlfSmJEaWs2NU1vQUJMTEY0QWNaSzUtOGFDOFpnYVhGNkowWmZxcVBmQVc2NU5lcjhnbm44X19JMFlMUzhiLTdFRzVmUGIzRTE1Y3R4NzJ1c3poOEgtZ19JUkRTaUYxZtIBmAJBVV95cUxPUDJSZ0xxR3B6MGYtY2NONU94RkVwaU1yV1pPNTR0UFQ2TkxLNkI0MTE0NTVWUldULWl6RmEzWkkwclp0QTRYa1BOZkU3VFN6UkRjSTFzSnhZcHRvdzVtQ0t1dDE3OWwzcTlaTWtZOE9YaWV1aGVIUDJDc3RzelMxa1pneWN0LTgyUmx2V0thQmlaRUxCSmVrSE1IMEZzN2VWM2NiLWxHUzgzTi1sMm1ZVWZGVVRINVFpSFBFWWZhd2Q4VWxsMDFOWTlnZlFQQ3BlVXI3c2NOZWZKVzRGTlBBclQxUzlXRU00TTVhS3VQNEhsM0QzWl9HSmMxVVM4dlpkcnRYU1RGaUk4dTk4TTBXYXlLaXQ3WXlI?oc=5" target="_blank">Valerie Wirtschafter, investigadora: "Los vídeos falsos de IA sobre la guerra de Irán no son solo desinformación, son literalmente una herramienta de guerra"</a>&nbsp;&nbsp;<font color="#6f6f6f">huffingtonpost.es</font>

  • Videos falsos sobre guerra en Oriente Medio se multiplican en X pese a las advertencias - UDG TVUDG TV

    <a href="https://news.google.com/rss/articles/CBMingFBVV95cUxNMVk2ZlRnUUlHanVfOWl1QTY4NElMQXhUeFBjYnNPRWh4MEg0a25reGh6cWdDZ3M1V0oxLWY3UkdIUDBzMGh1dW5Yd2djQ1N5Z0dxaE45d2FWOE1xN3NkakJrMGs1aVRoREpRc1dqTEIxMWxmRmc1OUdtV3pfUnNwSWVIOXFkUnA3aV9MR1BtZWFkUXYtMFVvNWRUQnpoZw?oc=5" target="_blank">Videos falsos sobre guerra en Oriente Medio se multiplican en X pese a las advertencias</a>&nbsp;&nbsp;<font color="#6f6f6f">UDG TV</font>

  • Videos falsos, la otra cara de la guerra en Medio Oriente - ABC ColorABC Color

    <a href="https://news.google.com/rss/articles/CBMiqwFBVV95cUxPZXRhWHZUdm1DWExxaS1JZ0E1STYyd1dVVXhNSlY3MmhKUjBGbFczMWNxZGdXTFRhbEd3TFIyVU5IdFZuamI3Y09GUGRrQmdGa2tpei1XZnVNY1h0Xy1PVEJ4dENaMG1LeU1vd3RBOC1yTk1JSDZMVmJJZU9mZk9sUXJweW5USUZTV0NWVnZwdzZ4clhwYzZfWXNKM2ZITFg2OG9XaGJGZDAySDjSAb8BQVVfeXFMTjdodExYU2JzcU82Q3RxUlkxcy16NVRIRXNHTkJHanlrTl9KNnJnWG9pc0I3WFpmSWd0bXdDd2VaN2drLWQ2YjdPZmJiMk02d1B2Q2FWWmQ3RkhlUjNPMW5CZG5fVkM5VDJxcEtHLXdXNEM2N29ldVhrdGt4NGpDc29JaHBia2w2U0pDUk41N01Nb3pVXzRsR2YtTlBxYzJBa2JBM19hU1NfVmlJbmV1Zk02Tm9td19UdGlxeElyQlU?oc=5" target="_blank">Videos falsos, la otra cara de la guerra en Medio Oriente</a>&nbsp;&nbsp;<font color="#6f6f6f">ABC Color</font>

  • Casi nadie lo sabe: quiénes pueden usar la nueva herramienta de YouTube para detectar videos falsos - La NaciónLa Nación

    <a href="https://news.google.com/rss/articles/CBMi6gFBVV95cUxPNWpYWXVVTWFXT3Y0ZzRMMGp1dC1UdXlYNFhCakZaZE8tOVZHWGlVYmE5QmVhQ0ZBYTlOd01aMnJCenBEa0piMXc5VS1jQ3dWaEQyNEZreFdNV3dMTGJEOWdHaDlOekk3OS04SnVwLW1fYTFac2FsS25GUmNlRW10MDJ2ZWtZaXRSNWhKckswcU9uT3h6aW0xTEJJS2ZmWkkxQjVkUjdaY3N3U1NyeW1sVXZOd1dxRkpmaE9BVTR3ZHFTY2k3WVZGbTlNeU54ZWIyeFQxdWpzS1lMWXZkMmp3WGw3Y0pJSWhuV0E?oc=5" target="_blank">Casi nadie lo sabe: quiénes pueden usar la nueva herramienta de YouTube para detectar videos falsos</a>&nbsp;&nbsp;<font color="#6f6f6f">La Nación</font>

  • Red de falsos noticieros en YouTube paga por llegar a los venezolanos con propaganda de Delcy Rodríguez - Instituto Prensa y Sociedad VenezuelaInstituto Prensa y Sociedad Venezuela

    <a href="https://news.google.com/rss/articles/CBMi2AFBVV95cUxOZkI3bktNMXVMUXV3VFREeGRETDRqdUduNGpDWlNDN0ZGbl81RXliTWNQLXRxS1UyR2NOWXhfNmpacnVZejRDcFN1WS1RRnhDUEVqLWJvUV9ERjNOelZTZDRkbGhnQWE4RzRXREJXZ0t4bW4ybkRVeURLNFJtSWhOa21GbVJvMkh2WHNlM2RzMENCdkxSblhtUzktbVdTSDVqZ2JxWnRNQlVvcU0tal80aE9NVEdGZGtxM3pRSnE3ZzlyOTU2NjNnM1NiSHA4aC03aXgtMjkzT20?oc=5" target="_blank">Red de falsos noticieros en YouTube paga por llegar a los venezolanos con propaganda de Delcy Rodríguez</a>&nbsp;&nbsp;<font color="#6f6f6f">Instituto Prensa y Sociedad Venezuela</font>

  • “España manda Eurofighter contra Irán”: campaña de vídeos falsos realizados con IA - Confidencial DigitalConfidencial Digital

    <a href="https://news.google.com/rss/articles/CBMixwFBVV95cUxNYmZGcmxObnJDajkyNHE3MzZqRURVTmhsR0Qyc2IzZVFSc0h5eURnY3ZTLTVWYWdGeDFfSFBkNWJTS3lKVVRVZGJWRU00eEpLOEh5b3dHX3p0TkpiYWo2OUxYeFBIcjUyYmd2bDAyZUEtRWxESmdXUkZEZ09EYmt4V1daVWtCMjAyQXIxdjdMYUtjQldiQUM5Z2E1Rl9weXI3WGtIak1mTktzS3lDVi12cFpzWmktX3MxQ2JvaGEtUUxhVnBHMEtV0gHMAUFVX3lxTFBrZVN2cEpFdGFieTYyXzU3RXJsWlJfZGNrQkpxR1NVbVJvQ0JBMUhtSjJsUzloMUstSEtWS0Jwam5SVXBZUTdiLWdSdS14a1FKZTZhRUIyWVZpX1FsdjNwU1JRTjIzVTJkZ2pSWW9sZ0tGYV9uYi1zUHlzcDhfR2tfOFBYS1JOalJyU0NhdW5iRlpaeGtxdW84OWd2Xy1HZVpncG91M1dqOXRqUlFEcDlpal9iVzUtdUU4alIzLU95c0ZEM0VadkpFSkVfQg?oc=5" target="_blank">“España manda Eurofighter contra Irán”: campaña de vídeos falsos realizados con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Confidencial Digital</font>

  • Guerra contra Irán, otro evento que dispara videos fake e imágenes con IA - UnoTVUnoTV

    <a href="https://news.google.com/rss/articles/CBMitwFBVV95cUxQenMzVFQxdWRhczdROEY2cXNoOUJXV0J0ZWd0cVIwOHdBVEM5X2QxZlJEYUVEWlhLWmJjSWd2MVJRZ2hBbDd1RmQ4VnRPUDQ1eHFuamFVcUFlY3JabVNDM0JHd1pCSlJEc1JZMXRoTmJESHdxeTZnVW5qdTU0RGt3RGFHYUJpdDBBcjlucEE3MFJXeHdxN2dIQ0ZGcnV3SEVEaG4ya1BxTjRvQ0cydkhyYmhzV3RxRkU?oc=5" target="_blank">Guerra contra Irán, otro evento que dispara videos fake e imágenes con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">UnoTV</font>

  • Explosiones, misiles y tropas falsas: videos e imágenes de IA sobre la guerra con Irán se difunden ampliamente en las redes - CNN en EspañolCNN en Español

    <a href="https://news.google.com/rss/articles/CBMitgFBVV95cUxQRFFFY3pBY0dpRjRxcVB2ZWRHZDV0c2MxakdfVUduSmEzbFFfSVkzalMtRFhKZ1F6UERhNnpucDBmTjN4UlF0TkZVVTNuLTZ4bXpCcVgyUXlLRUktUmNCbjNfRGhwSGliQnlQWWxlQ2ZuSkZCOE01Z3U1aG9YbTZHU3d3MmZZc0hFZjN0T3ZOWWF6d3NmSm5Tb3VsaEkxNnA2SFZIQWhkOTJSVHNzdVpTdEFPX0lFQQ?oc=5" target="_blank">Explosiones, misiles y tropas falsas: videos e imágenes de IA sobre la guerra con Irán se difunden ampliamente en las redes</a>&nbsp;&nbsp;<font color="#6f6f6f">CNN en Español</font>

  • ¿Real o falso? Así circulan videos de IA sobre la guerra con Irán - CNN en EspañolCNN en Español

    <a href="https://news.google.com/rss/articles/CBMiiwFBVV95cUxPOW5BMTQtMlk5a1p6V0NfRkk5dmFDa1N0Y1VWRWoyS0Y4S1ZoV2h3TFhJWUI5c1NIV2RtV1lkcmRNX08zcndMTXQzRF85RjdNNGgwTVlnUjZEWXlmekFWZmRtenBIM245VDdjZVRZTEJxX0k3Mk9XNE1BZ29GdUJYbU5FR04td24ya05B?oc=5" target="_blank">¿Real o falso? Así circulan videos de IA sobre la guerra con Irán</a>&nbsp;&nbsp;<font color="#6f6f6f">CNN en Español</font>

  • DW verifica afirmaciones falsas sobre la guerra contra Irán - DW.comDW.com

    <a href="https://news.google.com/rss/articles/CBMirwFBVV95cUxQLUhhNklmUmlfX0twWXhFWGVVWEc4ZDN0Y1B3a2FTa1JEdmU4VWg5TWZ4UXVzTG91NnpGTFRqa0RPd2NJQ2gtdVZrNEF2TWdwYjRFbmpKa3VJSUQ4YXZrcEI4Nm5DRGdkNEpzWWpKTlZmelJKdjJpX2l3cHdxN0hVaEdZNVZnNVhWS2F5RF9xUDFVN1QzMHR2SXBEOXd1bzFiRTUzUURUOTdWaDFOZ0tJ0gGvAUFVX3lxTE96Z0lUTkwyM295V0gxeVUyOUZPaUpITEZULXNXeWNaaC1Ec0d5Z3pSMl9lVjBqMG85RFROUklOTlBmZ3NETTkwS2VGbFI1b3Q1VlpqY2pHWVljbnUyaUk2VUFEUG9FNDAtb0xXMERJSmNRQnU4eFl2d0VSMWozMVVhOWpFcnJ2Q0xEQmhZcHhyQzhyWllmUXNGdWtTZjVQRTY2Mkp6VkhZQThoaHl2d3c?oc=5" target="_blank">DW verifica afirmaciones falsas sobre la guerra contra Irán</a>&nbsp;&nbsp;<font color="#6f6f6f">DW.com</font>

  • Una red rusa difunde vídeos falsos de 'Euronews' sobre la guerra - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMi0AFBVV95cUxPM2RSclY5ajJhb0RlT0dzQ1FXM0JMcXhReGVBcjJKMFg4ZklQU09PVlA5bjFMQXRZNTl5V2NzZTdJN0JuUEJVRTNiZVdTLWgzQ29LZ1RBYWdheHdvaUgzZGNkYmdXMzYwdzVBN2JVdUNrS2VHZjRzbmhVcHI2Y2tMMnMtZUdVVVhsX0J3Y3MzN0E2a2RlZTdQNkhlakx4WE5sNUlDOFFJSFl5c3cxVzFWSXNKdlQ5LVB5NUV1T0FuMVpQbXlLSldsTDJ3RTVHRWJC?oc=5" target="_blank">Una red rusa difunde vídeos falsos de 'Euronews' sobre la guerra</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • EEUU, Israel e Irán entran en la guerra de la desinformación: vídeos falsos de IA y fotos manipuladas eclipsan la verdad - VandalVandal

    <a href="https://news.google.com/rss/articles/CBMi-wFBVV95cUxQRHo1eTZDSGVhMkRGUHIyMGk0cnV6T0djUTN2WDJpUjhoZ3VVY3RlLVktUmliYnkzQ3hldUtWRVQteFgtTVlmemxSNl9RVVdEV2RYUTJDUXRsUEhkZ1Z0VUkwclNfRzlSUVhzYjZ4X2xkUkM3ZTljd3dLakw1V3NPUllBTHV0R1U0S1p1OHdPYUVRNDFLNjRHNGY2NmIxaXJOVGg5Um1QMU5yd0hoYXdzSEVPdGVsMVNsQVNOWDR5S3lJRk1wQklVYm5BU1dKMUVUOVo2b05tWEZIMno4MXlvblFVUDZmSDl6WU5xM3h4LUtreFp0TEtoZ1A3QdIBgAJBVV95cUxQUjV2bFFxSDdNYTBKSmdIV0xXQ1paOUJ6MVRpQVdtY19tck9tSEFlVF9tU3dhelc1WWdXQl9BU01uYkFsbEp4UXBNSUtpU3NiTVRJbFVhUlJhb0ZtSFI1RUZBZTFOWVQ3aG5TYkRXQzlkeGVmaVJwdi1PUkxHSlY2aUVoM2hpb3JrUk9OcVZvQkdtdXhESlJRdUQ2Z0hyaDZRUmVyUW1rcXpnbWpKV0RRdVVlNXNfY2pULTM3c08zTWNBZFFsbkZRMWRFSzRhWi1POFZjY3d5cGQ1QnFmaFZUZXRrbDdlVDNzbnZNM1R3UmItdU5OZzFlUktlaml3X2sz?oc=5" target="_blank">EEUU, Israel e Irán entran en la guerra de la desinformación: vídeos falsos de IA y fotos manipuladas eclipsan la verdad</a>&nbsp;&nbsp;<font color="#6f6f6f">Vandal</font>

  • Vídeo. Una red rusa difunde vídeos falsos de 'Euronews' sobre la guerra - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMiywFBVV95cUxQMGNoTE9vMlFabEtKMWhyQTBCUG9yNGl6RU1JVlZOMEZEbzE4eWd5aUJXVU11eHd5VDg0Mm5aR3JDUHBBMV9IQnZDMG4yQjFXS1VodDdfcmJOMEFGU0VEanZvdjhFT3pfbng1QThVaWN5VDJ2UDVBOEY0MW1XVm5LWDFvbUtzUmh5TEJUYXFKVUdaUWN5blVGclprQk9LY3FWWDZ0RkxhWWdZWmZiYzlWN091SlVRZUxuYnFzU2dZS1lFUEU1eC02NnNVQQ?oc=5" target="_blank">Vídeo. Una red rusa difunde vídeos falsos de 'Euronews' sobre la guerra</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • Inteligencia artificial y desinformación: el desafío de verificar imágenes en conflictos como el de Irán, Israel y Estados Unidos - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMiiAJBVV95cUxNa3hhOVZfRjdLT1NjOTFBdmpFa2RLd05jdG85V3pYUkx2dXBEVHZxcVlMd0gxRUpjcldYN2ZsY1Z2RTcxZXNzQ1VxNEdrZG9zY1BsNlNnUy1fdlRNSnlPYUdOU3NScnl3N3FRZDJCcmZCN1ZGWEh0dGhzYjV1RDZ3dmNZTlhmNzRRRmxRQ0syTklJWnhzeWo3V05EakZpWDlnZTc2UERieGFuazRycWd1TzczSjhjSGROMW1lblVVTHZMWjE4XzllaHZmMFpBTGVmZDd3MkROQXJLQjMxTE95WUNHVHVyVTY3NFVzSUhJSWhQV0dkNWJteGkyLWhEdnJSQzkwLS1JR2vSAaMCQVVfeXFMT3h0ZXhjNUlyUUQxZk4wSlF2aFhxSVhId1c4dE1LbDdDX2F2OXJTVnNia0VaRHhyYjdFRlFMWFZCWWUxckY2MkViZXFySkhxblZYR1BBOHI0NURDN3ZZc2VndDlNb0ZHOUpiSkdWREJXdlBZakZYUXM1ZFRhVzlrbXRHVXFZSTRMWDZYem1QUVM2WUh5ZTkyUHc5TFFQbHgwUFpwY3hIdVdMN3FvOERlSHhfMmN4VFJnWVRqamN2enlrUGNFdFJDYW5GczVCbERyVXpwYTc2OEQ3d21QaURHNFpKOHVYVmV5dDFLQ1A5WXI3TmhGbHFWLVRUa0FWNzBvbmU0NjA0ZHVFYmdYdkRzQWhTdGY1VzJnQl9kdDYya2Q4TTJn?oc=5" target="_blank">Inteligencia artificial y desinformación: el desafío de verificar imágenes en conflictos como el de Irán, Israel y Estados Unidos</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • Videos falsos generados con IA sobre ataques en Medio Oriente se viralizan en redes - France 24France 24

    <a href="https://news.google.com/rss/articles/CBMixAFBVV95cUxOWWRVZlNkTW9xV01sNE9pY1BjMUliQm1hQ1dyVEV0S2MtdjR1Tlp3N0JacEtlVkcxUEczN3dNMkxDam91OU83RXVOUlMzdDdPV0JhYTY5ZG44eEdRSHE2QXJWcmhWb1pkaGlQR2I2M0ttSFhWRjlkN0hkUDJTMElwZHM2VXAtRDhFTFBNckhzQUdLUkd5dU11dVVzd2N3c0RUclFWbE1aUUNnS0NvWnI3Ul9yeXBOck9sVTZwU2NoQWFUWkF1?oc=5" target="_blank">Videos falsos generados con IA sobre ataques en Medio Oriente se viralizan en redes</a>&nbsp;&nbsp;<font color="#6f6f6f">France 24</font>

  • The Cube: ¿Has visto estos vídeos falsos sobre la guerra de Irán? - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMiqwFBVV95cUxNNHEyX2I3SDFzXzZiSVdNQmRvNUV4cGEyb2diM0t0TVF0YzVyREJqRXVjNnUxWGR5OTBmMHlwakJqSWI4M3pEbjhUSmRmZ3pwTjJnMEo0aVVORXM3Z1pva1dPQlZGYVNNa3FlTDFFdDI2bjJsVVE5V1NFMFgweWFGeGVHX3doaUQ0STZJeGg5S0hPVUxPRkNNblJwRkZ3OHhQS3ZVbThnOVZYOXc?oc=5" target="_blank">The Cube: ¿Has visto estos vídeos falsos sobre la guerra de Irán?</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • Vídeo. The Cube: ¿Has visto estos vídeos falsos sobre la guerra de Irán? - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMipgFBVV95cUxPYWJLVkFYdFVRNXJ3aWxWU2FQZGdDUUxMSmxlNGJaNGZmNFc5RFVFaWdxeWxQb3NlZGRRLUFsSkZNbkN0TXh4bkhvV0E4bk5lU2ZvWlRrT1lyRmk0VEwydjZwMHkzR0RZSjgzTGlSWHp5QlFydWQ0Y2t3Q25rZHR4U2ItTkZOYlpfdFJYY0VLV3NMdWNsUklaTmNjbVVBcWwzMUZxbG9R?oc=5" target="_blank">Vídeo. The Cube: ¿Has visto estos vídeos falsos sobre la guerra de Irán?</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • La inteligencia artificial de X da por falsos vídeos reales en la guerra de Irán - La VanguardiaLa Vanguardia

    <a href="https://news.google.com/rss/articles/CBMiugFBVV95cUxQcDg3Y0dhbDBHMTM4VEllZWZrNEhTdUwzWjdtOVhXUkFBZjRFLWd6UjA2UUQzZjlhSThhZWJfY0RWVVM0ZFRPUTR5akRTdmdlbVhjRXlnWUlxRXdqbGh1S09uN0ZNVU9nLXFFOXBHbTNodzJScGdJeE5LN0w4SWRZMEQtWEdneGgxQlRvQnJISDJjV09QRlVNNmgxTm9sTFBxdEpRNUEwLWFHSlhyZkNGNmJVZmF0TVJjRFHSAb8BQVVfeXFMT28wMTRPZHpHRTJ3LXFvdWt5V2syT2lDcEVObWFfa1Q1cWFicDFOVTlURmdqRG5fMk9MZmt3bXB2MGQ3RmlNNkZ6ZUxISVZ0N2N3MzJSejZRcmJ5N1FPVUNYbE5GYS0zTG0xQ0tXM1BTRW55RmplaHVHTExqbzlqSlpWMTNkRmoxYWNJUk9neXpRZnNuRXZMTGtzXzhPQzBLbEF3VTJWSkljV3MxSXFaTW9KUVVwc3k0UjFGN0tLcXM?oc=5" target="_blank">La inteligencia artificial de X da por falsos vídeos reales en la guerra de Irán</a>&nbsp;&nbsp;<font color="#6f6f6f">La Vanguardia</font>

  • No caiga en la estafa: están circulando videos falsos del gerente del Banco de la República ofreciendo paquetes de inversiones - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMi_wFBVV95cUxNOFJJQVBpX0NqbDhpV3lieURUQ0ZrTDI1aElKYXpaMnE0NFRwdjhNU2ZZcDlhaHZGNEJWN3pULVM0MUZGS29pZ1ljRE0wbVJTUm1MT013OWI2S2FCR1FYd3k3TExpTTMtX0FDMHNZandLM3lPeUhMS1pFaTFjMUNjZ0kzSC1hT1l4R3RRV3VRQnZfWG5LSEhFRkptMjBUc3RkQXVaZGtxZl8yb1Nfb1E2RUxsaGF2T3drSllqa0szNlB2UWVFaU9sTDhfNEpobDBPRzVRU3ZlUkRnYVFVYmxMN2YyUkR5a2Y2RzlnMi04dVFaRG9WNHNXQ3RDSlY1QnPSAZoCQVVfeXFMTTN6Qm1lQVF5RnpDRDZOSnZ1bHloa0pqZTRVeHpDMFJDZ2R3dUljeGQzQlhnTkdmdW5LdXN2YmJ4cmU0N1NuVFpMV1lQSmlabEtRSG0xcVVuVGhEQkktaTRtU3ZUWjlkSUZEcGZjYnNYbUhla1ZKaVhPcVNkQ2UxTnJfZHc2aW81RGxmWVFlbHVSWGR4RGI2QXpac0U4bF9WUDAtWS1vekhJTFViNWZRdHhXSFV2aWx4c3hsdThGRVgzV1ZBandWZWFMbUFFOC03Nk42XzdaajVPbDFWV0VHUUZDQ294OTZnZ1hLM2lZcGxZa0M2YTNOcE11T3FKLWFMeFNOSzU5Y2c2QURFVGhqcVpoM3M1ZUNJX3d3?oc=5" target="_blank">No caiga en la estafa: están circulando videos falsos del gerente del Banco de la República ofreciendo paquetes de inversiones</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • Banco de la República advierte por videos falsos que invitan a invertir en plataformas ilegales - Pluralidad ZPluralidad Z

    <a href="https://news.google.com/rss/articles/CBMiyAFBVV95cUxNUWpZd2VEblBSMlA1UERoemZhYlZESEw2bXBmZzU0T1F6QzZzTnVHVGFmRVpSSmJYVnJQZmxuWUJ0LTRNY2JYR2ViRVpSb1NSaDZBdU5LN1VMMXBET2ZWRmlVZWFSUDc5Q21BTll0MlN1WVh6RkxTUzJ1TUJBd016eEpuNHZBZFVyazZmcnNCa1BTWjlJLWxWbnFVNmV2Vkswa0hQQWk2TUZHSXAySkNTQ0xfVTlKZ2d3WW9pRnNINklVRjhXSlQtQQ?oc=5" target="_blank">Banco de la República advierte por videos falsos que invitan a invertir en plataformas ilegales</a>&nbsp;&nbsp;<font color="#6f6f6f">Pluralidad Z</font>

  • Es falso que este video muestre a una presentadora diciendo “Alá nos protege” antes de que una bomba impacte - ChequeadoChequeado

    <a href="https://news.google.com/rss/articles/CBMi3wFBVV95cUxNWjFpQ1c4bEMxZ2FBbmdFT0lQQk5sbkZqVWtPWVo0eDcxQ055anptQVhoeUYwd3k2NVZEZXdLZUt3VUx0ZVBBYXhWTm9vZ0pmZld5cEQzTC1DMTJfYW5yd2N6S19UWGg1UTFieUZtZGo1UkFIeFgtLThUT3hMVTdXVDJqWTNwX09rM2tTUUxzcEpELXl0azNBSTlQZXl2aU80aHd1S0lFRGo1Mjcwcy1pN2J4dUxXak1lVG9BZnBqSTBYMVRDRjJ1anh0Q0FxZm1fYkpqVkhFU3B5UU1fbjFz?oc=5" target="_blank">Es falso que este video muestre a una presentadora diciendo “Alá nos protege” antes de que una bomba impacte</a>&nbsp;&nbsp;<font color="#6f6f6f">Chequeado</font>

  • Imágenes de inteligencia artificial y otros bulos sobre los ataques de Irán a Tel Aviv - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMiqgFBVV95cUxPd2lNUk9tX0x0VXl5Ny1lbktmVFRWMXVtb0dQNkpPZVpTQnY5X24ybzFwSmZ4WGI5a1pNRUlvMWJNNkFhV3dtZmR1c0hGWl91Qk41XzZuUnFaRklqbXY0U3RJNE9INWh4NlhPWl9zNzBGUHN6ajBobE9KSVRUNXZsODhkZUJwZXVua0J1MjNucXhBc3NEM2tuQ1MzM0trT3dYTnJSelNLNmVpd9IBqgFBVV95cUxPYUdYNjY2NEVEWjNDMFRReEFUdTZ1Z1JZOFpYTkJBNEg3bGY4Wk02MWRNaTBJc3BzR2h1a24xemRuMlY0TVRpZzFUNHF2eFU1N1lqUlNuUHVZN214U0tVaGJXVDJxRktQeWJzcjV0U3hocnVhNmlsTE1rRko3RV9LM3U4UVJFaFQ3NFAxQ2J3MjVPOFRRMFZRVnhmQ0l5SXhLaGxuaFVXVUVnQQ?oc=5" target="_blank">Imágenes de inteligencia artificial y otros bulos sobre los ataques de Irán a Tel Aviv</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • Bulos, fotos y vídeos falsos del ataque a Irán de EE.UU. e Israel - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMirAFBVV95cUxNM1ZSM3ZLd1lEWlRac3FuWXJ0OThpZkIzNndRalJpTEVRWmtfS0Y1NnZDdmpTU2RKUVNMRGdqckJrRURaTkJRSU9QYXFrQzlKS3JGWVBuTnBCclQyUV9JajgwM19PQk53ckdWRTc3VmRMSnotY2x6R3ZDd3k5TDMtNVpqNEx4WkZOWFBYb1JlOHRZczMtdGxfYlhqMlprVmJGN3N4eXdoSXJEdHNm0gGsAUFVX3lxTE1xNkRYRU1keEtJOTBVR01oMTJMenZOVEt3bjNWWUo3NkozbWFRcUljM2RIQzd4amRMNl9UMVU3M2ZRZDZtbGdxZXNHMEZud3kxN3NBeUFGWk1mQkJ6VHJJM1pxbjNEdzV0M3ZxRElhSFdXczdabFVEUjBWZlVLbFRZcC1rSmRFYWhaNVBfRUxoTnZpWllOZzlTMjc3ODdEMzdsLUkwd0YxendoU2Q?oc=5" target="_blank">Bulos, fotos y vídeos falsos del ataque a Irán de EE.UU. e Israel</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • No es un caza F-15 de EE. UU. derribado por Irán, es falso - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMikgFBVV95cUxON0g2SXFJaUlHdnFROUJKR0VjMzZKbkFHT3Q1VWw3SWcyZXBROEJNb20tdG5OVktQWWlPWC1rdXpnTTdfME1zNHBUcDFPOU5yN2h3NDBZdS01bHVkWUxGQ0VVSHF6WmxMcHRUU245d0tIY2VLS2F6WHBZeThLcHhlT0RPOTRkZXFLM0VfY2FJSUQ0d9IBkgFBVV95cUxQeV9yOE1ReHViR1ZkWGo1dVpHSjZaQ01YZW9UVmxBWmdYWlRfSmZlWjdMR1lIYXNBaWt6aVRoUGs4UTZZX3piU3E2el9FZlRYYXk5NWhSNVVKX0QtYlpOb1hZTGQycksyaFhWdWFRelZUazJBZWFVWFlMSTZla3I4dzFZMjJOQ1B1TU8wUkRIaTJFQQ?oc=5" target="_blank">No es un caza F-15 de EE. UU. derribado por Irán, es falso</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • Este vídeo no muestra un ataque de Irán a un rascacielos en Baréin, está generado con IA - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMinAFBVV95cUxPNkpySlBLUGotZTJlS3AtUTRlcDZaOWVFNTBHSTlHLVNWU0dhMjRtQU9iaUwwVXFYUGVFckNHR3haTld5dS1fSXpWNG1SNUR2QkFSSmpKU3k0ZW9ZRnFlekRuRE9yemRvWm03MEZGbnlBZ0NLN08zbmVOU2x2RkJMMWFuX3c1Q3c4V0pIelB4R0ZRTUJ5eGdIVnZLWXHSAZwBQVVfeXFMUE01dlZiaUh1NWFDcVdMNHZNdWdrY3pHQ3hSdllSb3ozb0VOVEN2Zlp6Ukh0ZVhyWmc4c05qS2dfUFdRRWNEbE5UN3BBWXZkbjNqTEYwZ1ljd2lqVjFFYVQ4OS1xNEZERVllc2V5UUNla1lfbkxiZWxPTG5td1hmOE1wRFNCNWo0ZXlWSUJhZFJ2T19lX0lKRzhJSmla?oc=5" target="_blank">Este vídeo no muestra un ataque de Irán a un rascacielos en Baréin, está generado con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • Las redes se llenan de vídeos falsos sobre los bombardeos en Dubái - VerificatVerificat

    <a href="https://news.google.com/rss/articles/CBMic0FVX3lxTE44MEYzcFJqNGJnbXpjOGYyNGlVQmQ0cnJUbjUyVWFHVlNDNUZEVlplZ2dSbnFuMGItN3g3bFN6YTd2SWxxTUdXS1RFendaYXp6ZElUelpSRENmZ2ZLbXVFSEhIcFpxQWdMTmZkM3F6VnEtSkE?oc=5" target="_blank">Las redes se llenan de vídeos falsos sobre los bombardeos en Dubái</a>&nbsp;&nbsp;<font color="#6f6f6f">Verificat</font>

  • Vídeo. Suplantan a 'Euronews' con vídeos falsos sobre los Juegos de Invierno - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMilwFBVV95cUxQY0w1SElETzh3NXhLOTlBbnNzck1ER0haQk95eDFWbDRyOV9Fc0dwQmp4N1g2Z29qajBmM0hKcmVMWTBpT25GR2d5RngxYUJiNEhRaXJHUlRpUElPcHMwS1VUdWFvd3NOemZuTXIzNG10NGhDNmZzNGVVcjVtWDhndy1QbER4dWZOY3ZhcUhmNTZTSE4wLVlN?oc=5" target="_blank">Vídeo. Suplantan a 'Euronews' con vídeos falsos sobre los Juegos de Invierno</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • Suplantan a 'Euronews' con vídeos falsos sobre los Juegos de Invierno - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMinAFBVV95cUxNMFFMNFNLdWxIWjYxMGVqbE9DT2ZPVG5rcUM1VU9mWFNxY0gwaHJoUm94dVBxdi03UFczZTJFcDRkc0I3dDBiR2JDLTljT2JQcmtYenplVHVvY2RWSVRqRDA3dkJoVlE2a2NQb1NoUG83b2tubUZucVUwd2prWGNhU1pTcEpiMlpTLXVVSHhqS2lKRFN0VFBWUHN4NFM?oc=5" target="_blank">Suplantan a 'Euronews' con vídeos falsos sobre los Juegos de Invierno</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • Cómo las imágenes absurdas creadas con IA están cambiando a las redes sociales y afectando a sus usuarios - BBCBBC

    <a href="https://news.google.com/rss/articles/CBMiW0FVX3lxTE5hTmV2MlQ1MnRjUzI2N3VWRmxTOUFwUmpzRW5PRjg1YnJoMXNLdGpnRXBuTTlFRV9LbEhJTDlfMTRHbE5ZSm1Jby1TMm90WGY2SUFGUERwWFQ1VzTSAWBBVV95cUxOZmtvM21aRVg3NVRuVjd6Rm5EQVJGV2tzT0tyY0ppMVJSN1ZRVnFCcE1lRjBXNVB2Y09aaDlzdzJTakpjWlM2UkU3XzJmVnBfRmJpeDgxWGI0OGZISGQ2U1A?oc=5" target="_blank">Cómo las imágenes absurdas creadas con IA están cambiando a las redes sociales y afectando a sus usuarios</a>&nbsp;&nbsp;<font color="#6f6f6f">BBC</font>

  • Detenidos en Benidorm por simular un secuestro con vídeos falsos - cbnoticias.comcbnoticias.com

    <a href="https://news.google.com/rss/articles/CBMingFBVV95cUxNNmFDMDRYX0ROQnRyS25ZZVpZQ0lfaVozU0RUNFI3Y0hBWkRLbl9rbGRwVTVuV3p4U0RyTHZFMjBjOXFXWndLQjNCZ3phamZPYWJ4Vjl3WTRoSEgxcTVDTnBEakxlUHhITnI2QlFrYmVZSDd5X3pjVzQzTkpNemNpTUVsLVd0MTBsV0RnaHp2TDBjZDExcXBub050dHZKQQ?oc=5" target="_blank">Detenidos en Benidorm por simular un secuestro con vídeos falsos</a>&nbsp;&nbsp;<font color="#6f6f6f">cbnoticias.com</font>

  • Vídeo. Hollywood contra Zelenski: destapan una red de vídeos falsos en redes - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMilgFBVV95cUxOdlF4ZTQxV1ctbjVQTy1ENkN5d0dteTJ5RDhOQTZudVBjTmh1TTJPNk9CcDZRYW82a2swQzJudEZrWGZzSDkxU3dFN21nckJkbENqTFRHQl9vWkhOejIxQjJhVVJqV2hnUGl1SWFheHRBN0xhOEw1eHFONFp6ZDZ0SHphVnJnaGkycmxHVGxvNzVGMEZPZXc?oc=5" target="_blank">Vídeo. Hollywood contra Zelenski: destapan una red de vídeos falsos en redes</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • Vuelven los emails que extorsionan con falsos videos o de supuestos sicarios que perdonan la vida si pagas - Cadena SERCadena SER

    <a href="https://news.google.com/rss/articles/CBMi9gFBVV95cUxNc1lhQXZaczdEVE5oMG5zZUIzZXdLZU9qcDJDQktxY1RNRFBLVGRJMzB4TExMcTRjUENPZFpSZDFSWURQNVBSSDJRcjh6V1BHZXFTa2REcnZOdHBqT25LU01CQUVmQkJRUmthTHlJMlZvaEltQ2FKYTZ6SjhFNGl1eG5GbG5uU2F2QnR5bzV5S29YSURtdUFNWEl1Q2hldjRObVV6TjU5a0FGSkZOazJjT3E2RnVZUmhKNWtPUkd5TkVfMS1SUXJnbXhHdml5QXJ0MTJvaFd4ZzFkcDNXWlpYT0tnb2FfX00xUXFfN1RUeldpbDFyUlHSAYoCQVVfeXFMTXB1TVNSbWl4RFB2SkZUVFZHQ00tUS1peHpvc0E5TERNTUdzNE5STWhGM3JRcm9PejRQWWRIOWNiS0JfOVZmcURHQjJTdXZ5ZzNkdmVmODBaV3Bobmxwa2thTUxaYUZLUWI1Rk9BbzE1ZWhVQVk5VkNmOGVYWUNhLVlmeTNiaDJrb09hbGVGQy1Kb1dRb0o0ZmdhS2NfNkhxdWp0amVhRnZvT0d6b2FJZFN4V1pyUFVIRUJwN24tdWtOYTZOY081X1RUUmRLalNTVlNQNmlhc2ttTC1RbW5BdkZRaFdHcUlacnVnYXhOclc5WVNLS1RURW9DRnR0MWpjbTdDOFpobGo0SGc?oc=5" target="_blank">Vuelven los emails que extorsionan con falsos videos o de supuestos sicarios que perdonan la vida si pagas</a>&nbsp;&nbsp;<font color="#6f6f6f">Cadena SER</font>

  • Vídeo. Vídeos falsos de JD Vance y desinformación rusa en las Olimpiadas - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMiywFBVV95cUxNM0g4Y2UydDkycUZVcDZDNGU3TWNJSlFwZ3Z1TjVjQnB1VDBCWFhtT1ZRdnZCYkZES1VneEF0a0ZvZlM4YmJDSkJfbGxPREdlT3hWSmlhR0diZHk2N2lva0doS0I3ZnNSNlBSSXQ2XzhOS1dOU0ZsczkzOE1DREViSWZMYUF1RjI4eGczaEZKU05yT0dEeGVERmdsWVAxN0R5N0pxbFhDaTVPeG1JeTdqZFg0RjYxZzZ5aE5JYlAtMGVDMGtfcXVsWG1CSQ?oc=5" target="_blank">Vídeo. Vídeos falsos de JD Vance y desinformación rusa en las Olimpiadas</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • Vídeos falsos de JD Vance y desinformación rusa en las Olimpiadas - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMi0AFBVV95cUxNODZXdW1FWVU2eUhkbHdMUHZpdVZFa19BVlVNUFFKc0xWSkhHdk5vZHBwalFJeEpTRjdob0tqY3FBSGlnYS1SUl9VbmZwY1dROEdpYkYxb2ZLelFWdWNYYVNJdE53RC01RUhoMDhKVjEtUU1yRDZoS0JRNFFVSGVjSEl4T3VZdkg1c25ZVEgwcW5GSHI4X01IYTVkSTF2LU55TTZfN281MU9lMHJlUUc1c3RlX2ZocHp1UDlyWi05WUswQmtnTy13Ql9mR1NDVGhF?oc=5" target="_blank">Vídeos falsos de JD Vance y desinformación rusa en las Olimpiadas</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • Videos falsos con inteligencia artificial: señales claras para no caer en el engaño en Texas - UnivisionUnivision

    <a href="https://news.google.com/rss/articles/CBMi2AFBVV95cUxNZFJLM2lWZGNWTjNPY1lRQkk0Wk5ZNEFidnJjd1hoSmZKWWdpd2MxMnFIVXAwSjVpT3BCeEZ1TGhzRXBoUFRJcng2R0FYWEFxa0ZDVEVzSWc2MGtJVklUMy12alptOElsd2toT3lEanZEa3Z2V2U3Y2RoVWxRNlB4aG8zUmtvczNCR3JuTERCWjhSb182bzM0SWN0VEtCYV9qRk5SUzNPd1lnT2p0anYzb19tNUU5Q3h2UnB5eUE1T2lmMkhXVnpQQlhWMVUtd3Zvdl9Xb0d5SGI?oc=5" target="_blank">Videos falsos con inteligencia artificial: señales claras para no caer en el engaño en Texas</a>&nbsp;&nbsp;<font color="#6f6f6f">Univision</font>

  • Videos falsos con inteligencia artificial: señales claras para no caer en el engaño en Texas - UnivisionUnivision

    <a href="https://news.google.com/rss/articles/CBMi2wFBVV95cUxOUXYwZFgyWWhUY0FSSXptWUNaTWV2NXRlSTFSYWc0N1p6eGJtWjlZVjBsU1g2NDJWVkM0NmtDVzNIMzV3aFBieVliQ1lOMUZRUlNaWml6MlFpVm8teE10dFdHVW9zWW1NQVNXUmc0NVJVLTF4bDY4VnFYLThoT09DOEU1YWNxeWZuOVJVU1pfSnZaWFJRMHdjOW83MnBZWUpBN3J3czlSRngxdWR4ejJ2X0xBTkNFM0lFSTR2MjRjb2twLVVlRXJfM1BhRm1ra1ZYbTF4OVlFTkJxX1k?oc=5" target="_blank">Videos falsos con inteligencia artificial: señales claras para no caer en el engaño en Texas</a>&nbsp;&nbsp;<font color="#6f6f6f">Univision</font>

  • Vídeo. La red se inunda de fotos falsas de políticos por los archivos Epstein - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMipgFBVV95cUxNa2NWOFVORWdqQXBQb3BCRTVVYS1jTVBkUWhTcGlQVlRnQUR3enVocDVWX0hCTk9hbmN1dTFaUVRPTjRtQjZCQ1ZDWmdUMFZwMWxXWGsyNFl2VkNvTXFMVFN2YTd1SGo3RVg3Vi10Vi10SUthZXdNcnN6NC1FNnRpVUIzWEpONDFoV095MjBCTWcxbFJWcHhkaWM1NlVrcG5vZnJ0WVNB?oc=5" target="_blank">Vídeo. La red se inunda de fotos falsas de políticos por los archivos Epstein</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • Se están volviendo indistinguibles: cómo diferenciar los videos realistas hechos con IA de los verdaderos - La NaciónLa Nación

    <a href="https://news.google.com/rss/articles/CBMi0AFBVV95cUxNQll3SzNNRjhlZ2F2MXlNVFlsVHdrSGlTNGtaNWFicWRMenFTMHFBd1pJV3YyR0xIQ1JKaUd6UThZUG03aGhmTWJZT054R21xSVc5MTJDVUxsNlZPMTFZYmhQNHhDNDJPNnB0bWVhRUdIRjlKQ2FKcmVVSTdxVEUzVmhaWU5TTE5EaHpXNlpPX09YQnRpUE5LYWdIM25zclM4VFBEMVFoZGMxZTBxMkdscmNaS3BEVG1mWEk0VnVUdkp1dklTZ2xfZWpPZlhxWmE2?oc=5" target="_blank">Se están volviendo indistinguibles: cómo diferenciar los videos realistas hechos con IA de los verdaderos</a>&nbsp;&nbsp;<font color="#6f6f6f">La Nación</font>

  • No es una joven migrante diciendo que se irá a su país si gana Vox porque "se acaban las ayudas": es IA - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMilgFBVV95cUxPZ3BIV3F5YXlFbHBIMGFabXg0TkE2TVFrT1ZkWl8teDhmODNobVRPOFNUd3BzdlpHTzUwVWJkdVN0Q1hWS3hiQkhwQWtqdkR6eTRZUk1yenBZcDVXTkpKaF9OcTFlZ29GZ1FPRHJEM3NVdG1BSEJTWHRIVGZaZGZZeENPekRGVHBvb291T2hPUDVqdjFYOEHSAZYBQVVfeXFMTkFjajFuem5uN2NpbEx0bk84UVNMU1BTSWlUb0hEMnVOTVdqOFpsbUtoREZBVV9JSDIxZEI0TDR6cXk5RWZPd0ROaFpxWjE3NExGZWdCRVBXcHJDemRmbVJkeUFpTk8xSHpDcV8wWENZX0Y1aTk2LXp3Y2hjZXVrTlNMVF9vVU44Z2NDa3A4Z00zNXlNaGRR?oc=5" target="_blank">No es una joven migrante diciendo que se irá a su país si gana Vox porque "se acaban las ayudas": es IA</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • DW verifica: videos falsos vs. reales de redadas de ICE - DW.comDW.com

    <a href="https://news.google.com/rss/articles/CBMisgFBVV95cUxOMlppRndGWlBidzYxcGVnSnRVQ25VX1pIX1doYmpibldfZW9MTkZRMUx2azllR1ZNYmZiR1FSWG1vV01rUXF1RjVDaW1fTG1jYVRTaVZKVWJNamRXLU9rVU1KblpndU1FX3hGM0hLakxKdm9lZGUzSzVid2Rtc3FfalZMa2Zfa2FROGJXVnZRUnBPcGlEME1mNUdORmQyZEVSZGNnVTFwRDc2czJXT0l4SHF30gGyAUFVX3lxTE1oZm5IbkpGWXV1NDk5UlZQMFNGUmp0REdyeUF4RHBwWmNXR0RabGxmak1JRkF3Mjk3aG1kUUQwVm4xVjZsRE5FeHF5dzRVRjN5UmwySk83V3l5d3dLczVCQzItN0hmeDZCSG50N1RwMEdPdTBWVDJNcXhjZEtPUW1SSmxzdWRPOEhndi12SkV4bFZQcjBoVnJuRi1qX1hlYkdSWDZQYk1VdW05cGNrTkhaOHc?oc=5" target="_blank">DW verifica: videos falsos vs. reales de redadas de ICE</a>&nbsp;&nbsp;<font color="#6f6f6f">DW.com</font>

  • Videos falsos de fauna silvestre creados con inteligencia artificial inundan las redes y generan alarma entre expertos - MongabayMongabay

    <a href="https://news.google.com/rss/articles/CBMioAFBVV95cUxNNFpxWmNoU0FqaS1SeEp5RkJ5c2N5UllaRkVKMkdmXzRWRG9VQUwzdW4ta0EtdXVqUWlwc21ia3c5dERKQjdaWWpuSFdvaldJYjlrNkYwM1llTUFaQTY3SVlkXzAzZ3FYQnFQTWlTNXEzdWl6UEx5MjRYSlp3UG11VWpTTjZWb1BJR3Z1cHlqbVRzR21UX2lfM1N0QnI4bm4t?oc=5" target="_blank">Videos falsos de fauna silvestre creados con inteligencia artificial inundan las redes y generan alarma entre expertos</a>&nbsp;&nbsp;<font color="#6f6f6f">Mongabay</font>

  • Video de IA muestra falsa captura de agente de ICE por la Policía de Nueva York - ColombiaCheckColombiaCheck

    <a href="https://news.google.com/rss/articles/CBMitAFBVV95cUxOSXZNTmZLdlVJelc3LV9tMUNDRUg0N2J4MHhWMTNrd01ETjk2TGkteFZPRnNSRzdlS1Z3RnNyWXJmRnR6bjltX29aZ0tSZU9KRTdQWDZIeXQzUXM1SFNNVFF2dG14M01HNU1kR3doaVdjY0lwdm1uaGFBNGRGQ2tDZzFtcVlRVFVyVWEtZzNfcUpJOGVLOGF4N1NHMXh4TEc3QWpYYnRfVmVsZTJtMThlSVh6dXo?oc=5" target="_blank">Video de IA muestra falsa captura de agente de ICE por la Policía de Nueva York</a>&nbsp;&nbsp;<font color="#6f6f6f">ColombiaCheck</font>

  • Extorsión con videos falsos creados con inteligencia artificial golpea a una familia hispana en Dallas - UnivisionUnivision

    <a href="https://news.google.com/rss/articles/CBMivAFBVV95cUxQZ294Y3FXWXNIVUhtTlhTeDJBdlFGZVhmRTNqdUd2NUgtWlNRT3VrcWVEMmdYNTQ3YTd1QllaSVhuY0c5WVRaWjlOeG5uMzRiZEllT2tyU1dzSHFaR1VRRVVwbFlwX0lzSUdTaHduN2Q5WkJvcV9iX1d5M2RVb1doVVBrUkhyZEt4djRPRlktTnhzYUpqRjBTd1c2el9TTTZWMnhQUzBSajVZRE00aklFdVhCaU90Q0VIM3NjYQ?oc=5" target="_blank">Extorsión con videos falsos creados con inteligencia artificial golpea a una familia hispana en Dallas</a>&nbsp;&nbsp;<font color="#6f6f6f">Univision</font>

  • Familia hispana denuncia extorsión con videos falsos hechos con inteligencia artificial en Dallas - UnivisionUnivision

    <a href="https://news.google.com/rss/articles/CBMi4AFBVV95cUxQWkRHdDNldUtxVDMwcVFGY0piRm02RE8zTzZQZ3RwT3FSVjJabHQwXzdCd0ZlZHpRMGt4aDRXNlZXaVZvZFphMDYwOFFqRDhPSVVydXRIaHdrYVF2X0dVczFCV005d0J3czV3TWRjR2JRRUxZUklIV3pTSjhjMDNhOXdvb185dHNvNDhSbHBxVk5oS3daZmtCTFJpdWtIVWRYV2Z1S2l2aFpsVU42d0lkM19BUk9VaFhUaUdNUkFRYzZ4bHFaMlhpZkxDb2tNbC1LT1dCNnN6RHRycGMxYXg1Sg?oc=5" target="_blank">Familia hispana denuncia extorsión con videos falsos hechos con inteligencia artificial en Dallas</a>&nbsp;&nbsp;<font color="#6f6f6f">Univision</font>

  • Los peligros de los vídeos falsos creados por IA. - Vietnam.vnVietnam.vn

    <a href="https://news.google.com/rss/articles/CBMiZ0FVX3lxTE8wUmZHWFJnUFk1OUhZSEtQdXZfLU1XTWEwVUFyZjd2dkJNNU50aVk3XzUtN1B5T3pjMURxcnFxQTR3YkV0NGNmczRNY1NXd0hzeVpfdXhqeXFxMzNhV3FmYWFhMFkxbEk?oc=5" target="_blank">Los peligros de los vídeos falsos creados por IA.</a>&nbsp;&nbsp;<font color="#6f6f6f">Vietnam.vn</font>

  • Ring permite ahora verificar vídeos, ¿podría ayudar con vídeos falsos hechos con IA? - RedesZoneRedesZone

    <a href="https://news.google.com/rss/articles/CBMigAFBVV95cUxQZWxxcENvaDZhTkRWeWJPQ21OYS1iVzFjc1VJTWRwVTZSNWw0QkxFamFRbTZDNlV4WnBlWDhXeDkxOHVCZkNRdTJ4amhWN25aS2JDckYxNGFZbVNteFZnWjBOM0ZEWlV3bG9RTUkzOWNhZnlvbXBRRThKT0VXX2hibg?oc=5" target="_blank">Ring permite ahora verificar vídeos, ¿podría ayudar con vídeos falsos hechos con IA?</a>&nbsp;&nbsp;<font color="#6f6f6f">RedesZone</font>

  • Estas imágenes no muestran la gran nevada en Kamchatka, Rusia, están creadas con IA - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMivwFBVV95cUxPZUZ3QzF1djZYYWtBRmVmR1hwT3hfYk5acC1uczFQN09wYkR3UklrT1JLUVNwYUVfX2plVTNQcHJwTGdDdEc1WmZuN1ZtSDg1MWlmcEN5QzItdS1RbWpVZ2gtaEdxTEJYV01hMVpRM0NxQ2FsX25zQmp3QXhwaDBHMWFsUDY3a3Rad2d3NDR1VkRma2UxTUt0dmt6X3NvVGhjazVaM3VYQ1FHZDYzYWRtaTNNVmczQUkzLXMzQ1ZDY9IBvwFBVV95cUxQR1pEZFgtUjRQUzlfRzRSSGNLRFEtbFhOVWdOTzNYQjFWOHowMzV3RmJXZjhhRlhaTHJfd2dyT3VNQUdvRmJCejRDNDkyWk10THAzdHpmSTNVeEVESl9nX2pqV3RZakRtMWdlLTJuVVQwTFFoR2M4MVhyMHhBeVcwamt5T3BoS01hV0dqZjFuSjY5c1JmejR0Rm9JZ1JfMEsyU2t4SHZIYkxGVzhNSkU5dWlMVTJCbEJvYkc5cGZTRQ?oc=5" target="_blank">Estas imágenes no muestran la gran nevada en Kamchatka, Rusia, están creadas con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • 'Al rojo vivo' desmonta un bulo que afecta a 'laSexta Xplica' tras el accidente de Adamuz: "Insisto, este vídeo es falso" - elDiario.eselDiario.es

    <a href="https://news.google.com/rss/articles/CBMizwFBVV95cUxOc3I0d05hZnFzN3JBSkd5WTJKU3RRUU9YQ0dQeU4tQWszcFppTmw0WGU0dG9adHZ2bWwtMU9USjZHTUNSZG1CNGtmdWtsZFdZNTFibmtuYlNrU2hnakdGbU9WcWQwRGhBU3NvZUd4Q2dqUGZidm1SUlk2dWJoZVVGWElickJEaEVtYmFCaGFMMzhqcHZZMTVTZEVzQ3ljd0lmdm4wWW5tckJ0a2Exb2RFZDU5Tm8yZm9YM25HTEtFMUZ3M28tQTBzMk1kRk9pLTjSAdQBQVVfeXFMT3hIMnJnSHhTT3JkWlltNVpJMHFBUkJVWVBSWWFuRkhKRVIxU291VzZTdXY0bnNBaEpjeVdQQ2RzZ01mNml2WjZxME10clgxWEdRRWN2ZHdXeFh3Sm9uTDhTTUkxOUROaHhlMUJLb3ctRERNdTNyVWFGVi1EdUNWck0teWlBN1g1NzlWTXhCQzRaaUJYM05MVkNYc3JhRGpYcS1kcGUzNDM1X1laa0xjcF9HNHplMVVOVTBTZnFHTGVTR2VsTDZ3N1VJUzZsZzZvUVEwa0I?oc=5" target="_blank">'Al rojo vivo' desmonta un bulo que afecta a 'laSexta Xplica' tras el accidente de Adamuz: "Insisto, este vídeo es falso"</a>&nbsp;&nbsp;<font color="#6f6f6f">elDiario.es</font>

  • Estafan 200.000 € a una anciana con inversiones ficticias publicitadas con vídeos falsos de famosos - OkDiarioOkDiario

    <a href="https://news.google.com/rss/articles/CBMiywFBVV95cUxPaU1aS3RtdkNQdkFlV291MUZEd1V0LVZHTU9VeHdNN2VaZXhwdjBod1ZXb2dCZ0YzeFFhVF83NUJtZlRMdlF0aXQtS1htWG9ibXY5ZEpENzYyR1l1eW84ckZsLUszM3lEM05tTnFUa3Y0T0FOc1FISURlUlQtZG1KU0ZxandaN0JPb0JLSmZNLVdqT2hZTnMxMUloQWtiVXR6NzFuZlg4bzFQU1I4RlFoYThvZmZpOG4yZUlmei1rcDZ1QWVibWtvNTRrTdIB0AFBVV95cUxNS0dSRlNzX3FTZ08zMVg5NF9JSEpBWEFJZVhuQUFncnhRblh2YlBmeE1YcndYOThLSThYZktRTURFVktJUzdFOEl6UVR3SGdNak4tM0I0WWloV2dqTDlHNjJnWVFVS0JpOU96b0VoR01FN1ZJc0NOVGM0TDBkNEtUSFFTeE95Q2tfcDl5MWVYY2RlU1VnbzFlRW42XzQ5MncxMkZFa0c3VE1DbHpqWEMzZGtSNHRkMFkwZnNFOEU1aEEwNDRLd1ZPTG1hOWVGZ1dx?oc=5" target="_blank">Estafan 200.000 € a una anciana con inversiones ficticias publicitadas con vídeos falsos de famosos</a>&nbsp;&nbsp;<font color="#6f6f6f">OkDiario</font>

  • La nevada de Kamchatka generada por IA simboliza algo preocupante: ya no podemos fiarnos de ninguna imagen en internet - XatakaXataka

    <a href="https://news.google.com/rss/articles/CBMitwFBVV95cUxNU0Jkb3dxMUNEUEs3aTc4SUxWTTUwZWF4ZGpuaVhvNVFzdzRWSnlsTFlRaUVjaUtITDdSN09qRS13cUxwbmlwS0gtMUpfQXUtY1RDRWNzZlo3Z1BnMnVqanNHT0lqQ01ULW8yLWFxTlhVSkVZdl9SZ2xwclZzSjF5MzNVbEdPUjZOUFpXVF9QZm1SVUZuLTNZZUtWUS1Hc2lyc0I4ZjBNQnBYT05fdVB4cEdDTHNtTFHSAbwBQVVfeXFMTk91LXMtb0VrR3BnNUtQWFctREo3cTZZUWJIQjVZOU56ZnBrZDhkOENMNGx6QlZwSWRXQ3czV2o4a2JWamdtNnVUdVgtajNnek1pdVdDQnNGQnpjdzZrSnZDUzNQMEhtb0dWbzI3aXVrNjVDUUtnMlE1ekE1N1VjTUhPN3NzMDdKejZ5MlZkQ0tUMWVER0t4blBSQkExUWN0OFVZTEVaQ3dnY1BBNnc1UjVqalE1T0djbXNYNjg?oc=5" target="_blank">La nevada de Kamchatka generada por IA simboliza algo preocupante: ya no podemos fiarnos de ninguna imagen en internet</a>&nbsp;&nbsp;<font color="#6f6f6f">Xataka</font>

  • Qué es un Deepfake, ejemplos y tipos - www.trendmicro.comwww.trendmicro.com

    <a href="https://news.google.com/rss/articles/CBMiakFVX3lxTE1zTGt6LUU3Qm1KVUx6ZWxfVFpfa3ZoVl9wc0thcnVySnBQNzhEVHpEODlMR0Y2UlZsY1NkZnhGa2V1VUUtVGlZSzdiVHVYT21ZOVExTGRZQXFkcG9HNTAyZFNJajRwbDNuRlE?oc=5" target="_blank">Qué es un Deepfake, ejemplos y tipos</a>&nbsp;&nbsp;<font color="#6f6f6f">www.trendmicro.com</font>

  • The Cube: Usan la IA para robar la voz a periodistas de 'Euronews' en vídeos falsos contra Ucrania - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMi0AFBVV95cUxOdFJGTURnZjRUSm40UXlMVEZFRDJTaHFSazl4MzZveGpCYlhpVnV3aGxCYjZYSjRNd0xPWFdVeUpCX0poRXJMdXhwc1pnYXhWQ08wbW02SW4zc1Z3SFRoTmRvNTZHTFBNUnVlcVlVZDY5TzZ6V1o0MEpYWXVoM0Y5VWY1NUpoSG1DRkszV2NUalVGN1d3SGExWF9mcWJEQmR3Skt6blpvNEp6clU1V3VJdzNRWHJhZVBRb1h5djVnRklwX0p3WENhMzFGdXhGOFYw?oc=5" target="_blank">The Cube: Usan la IA para robar la voz a periodistas de 'Euronews' en vídeos falsos contra Ucrania</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • Vídeo. Usan la IA para robar la voz a periodistas de 'Euronews' - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMiywFBVV95cUxObU5aV1VydzRBbzFQdUNsNGNsRzM0MGxWY0tfZEd1WHlPNHplTV9UeGZVcGtOSWJMUC1LNGgycXhCT2FiWHloQnFYSkZob3ByVWp3b2hLR1lqSjdoa1BzLUQ0eUNSS2NrV3JocjdyRnpsY01iWnoxaG1OQVZRYW9hYWY2LXl6SDBEc2pzeGFvdmZmTjJWcFJaVXJMaDh1ekdRQ1hXZ1pEMlp4aEhKN0F6ZndhODFPOFpYZGRHcUdRdVZ4bDVqbVBCNWwtbw?oc=5" target="_blank">Vídeo. Usan la IA para robar la voz a periodistas de 'Euronews'</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • No son curas enfrentándose a agentes de inmigración, son vídeos falsos - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMiqgFBVV95cUxNSTkxczd0dE0tVV9oYkkzV1ZHOU5KTklEM3lwZWkwZHdxOTFBeGs4Nm5FNVNDNFJHcEtMbm5Dc2VvUjFscnlGUEhvbmtBTWFfMGZmS3ZodjhTUkgyX01BRnozWENraGRpSVR4NjlfN2F3Vm5BRnp2NmlYNXV6SVFwVFN1SS13c044SWdRV0lfNV9VVno5UVJCTVZKTURIWjZMMmIxblEzUG44UdIBqgFBVV95cUxQci1pX3FoN0hTNVptVmJaSlBHMzRFaUlRTlpBNW1ac2w3VUo4REdVUnVpTVNOc3dXR2hPZkRWRWdLbDlMc0lZTFhsc1NiYlJFT2FTUjVUMHloQkFlT1lIbGlHN1dHVkhoSGZKZVlTRnlGMGVVWXJKTk5IdU1ZTU50OGU1amxIWmRLRTJJb1dHeHlqLVRRdFlTeVZDUlo5clVQQncxVUlpbTRCQQ?oc=5" target="_blank">No son curas enfrentándose a agentes de inmigración, son vídeos falsos</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • ¿Su TikTok está lleno de videos falsos? Así puede identificar si fueron creados con IA para no dejarse engañar en redes sociales - Revista SemanaRevista Semana

    <a href="https://news.google.com/rss/articles/CBMiiAJBVV95cUxOaEJzYWtqVHNQWXUzbVNGMXc2UnR2ME9aSFhxMkd3QWd4X0t0bkdPd0tjTlZiS05lVzB1VDFrTF8tMnRWWnNkR3UxOWFMeVRPYmNyb204Sk5zb0xfaVY4ZHB6WFhFVE5lYTl2bTNvOXU0dzJpMURTekd3T2QyRmZXWUhPN2s4eGNOVHpiWHlGUGZPVDhuekdZQ0pfRGYyaHJwZXM4TmRtdUFrZHB1b3F2aTdRb3c2VHFyQ3FHQk5VNkhRQVBybkt0cUZkRnBReVN5SElmUzIydkM0WHV6VFNUMHRhRGVIWG1ZWjZOemJqR1RtSnRhalVvOF83Rkd2UVJYVDQ4SWRvR2PSAY4CQVVfeXFMTUlJXzVtdS1rTHFQVjlPLWl6cmRuOXVIaGNqRG9kblMxVG1hSGVsbGNCV3NVSy03YUtadmdJQlVZby1RM3lVYUs0WFNZTWFyVDNSYzRud0hEOHFYSGtpelZFVWotVWNSUnNKSElxSFd4c2FWZXJ4UzlfUExJSGRaYVlUWG5jYXlocE5mdDM2UEZlNV96U0Q1Y2hTazdqWk5TOVRiblpNWGl5c1MtTHB3RmZ2NjlPZ015Wi1fUG9ac1NiSnZzbGhnQjNuc0V1dDBfcVNMSDBaWEQyUmQ4UGthOWpGMDNXWV94dHZNWWxfTHZaMGMyaU9HUk9IREZ6VURvWE0ySWl3OXk1V2RqSFZ3?oc=5" target="_blank">¿Su TikTok está lleno de videos falsos? Así puede identificar si fueron creados con IA para no dejarse engañar en redes sociales</a>&nbsp;&nbsp;<font color="#6f6f6f">Revista Semana</font>

  • The Cube: Vídeos de agricultores creados con IA inundan las redes para generar beneficios y propaganda - es.euronews.comes.euronews.com

    <a href="https://news.google.com/rss/articles/CBMi0AFBVV95cUxNYnZQNWFaZGc5Qnl1cUxIMEtNZktuY0R5UEtPZEx3QW9lT3J2T2I3NEdJU3NqX2xBaHBMem5zOHhjTEZhVzFpczNXelAyazZKY2l6dWFqUllSbVc4UjdxbGNDREtNS0t0aGlsT0huS1oxenk4VUlpTDEwS1A3anJQSGtxSXgtb1ZGQUNBMXFubXE4aWswbV83azQ1bk9jNy1oRVFaQlhVR0FiclJ2My1LMWxSdTI5cUI5YUw2bktvUTFmZ1BxU3JQaXFnbm04MjFR?oc=5" target="_blank">The Cube: Vídeos de agricultores creados con IA inundan las redes para generar beneficios y propaganda</a>&nbsp;&nbsp;<font color="#6f6f6f">es.euronews.com</font>

  • Los falsos videos sobre festejos multitudinarios en Venezuela ante la captura de Maduro - UnivisionUnivision

    <a href="https://news.google.com/rss/articles/CBMixwFBVV95cUxPRFVjTmhiZFZlTHU1SEVzVDI4MWRFWkJYV0hmdVlGTXdTN2JEbXdsd2dNSHRoOENORkZudmM4N1k4VmhKdlg5ZXBjOExXSDNHb1Z4UzM0VEFHT2RwdURKQ2c4QmN2SFB2Y0J1a2hURXgyUkYtMlJSMTlRcUV4OGNWMDRYM2xqMlpFQzlobjh2SnJMNnRJNjBHLVdrNHl0SmhyN010eERvQzdUTWVuajhoa3FnVXR5NmRfbWVEb2ZrWnF1WlI3RUVF?oc=5" target="_blank">Los falsos videos sobre festejos multitudinarios en Venezuela ante la captura de Maduro</a>&nbsp;&nbsp;<font color="#6f6f6f">Univision</font>

  • Policía cibernética lanza alerta sobre videos en TikTok que anuncian programas falsos para robar contraseñas y datos personales - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMi_wFBVV95cUxNejNlSlNzaHhQY09YdUJFUWZDM1diRkwybDMtVTlmV0M2VU5Ua25rUkhpQTJUYkJGMG5DMlJGd1EwRklzNlotTXdPZ29jS3YwYnRaTU95VXgzUGlNNDJpNEUwWUpfcUR4NU80REVDbi1hbVRIdF9PMWJmYVNBLVVhcUdIME9OREY5S09DLUxETkZuWWVfMThwSVRpaVFzMnRZZV9QRC1qYkEtY3hJdDZTekN6b0dMM0pUS0lMVHY5X1BxaE56TmNEandHSUFsUWRvSUwwTkNKRC1WOTFzaXlPVkRFRzZtSnJGajFreDFIOVU1SlF6REp3aWJCV05EUGPSAZoCQVVfeXFMT0VRYUJxd1VMOXdCSnlvcXhBbWpUd0xQRTJ2dGZEMHp6ZWx4M3liU3hkRWZ3d2VvTEtHaUx1TVFndlZ2T0hDelh5bUZSNnlqRUVjbV8xcVBndDYzWVNBYTN3RVpMMEFOamMyUk0taFAtakE1ZzdnXy14bmNITXhnbXIxb1NoblBudlVDRjVhQWpZYms2TzR6YWNQYmkwX1c2WnRSYk8wcmNZMENackRBTVFfOS1RYXo5UVo1d1Z5R3JsNEFMcnRDWjlNQWRLakw2VjYwRHhGM3BoNTdUeW9WVm5mSlE2UkZ1WndtU0ZfRjlrRkRWUGtQZmFqWGJjekpVeU9kbGdvV2VHY29ON3NYYTk1b2ZZcjlxQUt3?oc=5" target="_blank">Policía cibernética lanza alerta sobre videos en TikTok que anuncian programas falsos para robar contraseñas y datos personales</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • El nuevo trend de TikTok es engañar a creyentes con videos falsos de pastores generados con IA - WIREDWIRED

    <a href="https://news.google.com/rss/articles/CBMiwwFBVV95cUxNMi01STlTYnNtbm1qNWsySzZCR0YtTEpSaE5TUGs2VmI3a3RoWDZIUk8tX1AzeGJoSXN5dGtOUW5aenRhY3l2LW9tTjVVVDBocEZ4U0pBYmc5VjN6U0pvMGY3cUEtOEJvNUw4aWdXNUNZY2E4eDZ4VGJ0TlRrTE8ya3RHbVMzUjZtNm5kaXZRS09qTURGcWU4Ty1ZLXhoaXRRczFEUHExbGVWRk1OeE15SG5BNlE1UnhZN2VBcEZHNl95OVk?oc=5" target="_blank">El nuevo trend de TikTok es engañar a creyentes con videos falsos de pastores generados con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">WIRED</font>

  • Los videos falsos creados con IA, la desinformación protagonista de 2025 - ChequeadoChequeado

    <a href="https://news.google.com/rss/articles/CBMisAFBVV95cUxNYVVZa19zeUdDOVJPU3RxQ2xiMmdnc0VPTFBaMXdHUnRSczM5alZHaFFJbFJqWUkxUmkzQVhINWloT0tSU05ITkROcFhfOGRKWFdmX0xmeV9BWm9GRHRLT080T1VETUNWUVpLYzhGcVIwOTM5NGttNWpCZDdMYmpmTWoyZlVzM0xENUc2TVY1aEFXeF93ZjBkdElvYTNORlNIV3NNTDE4YkRXUG14Qzg0Nw?oc=5" target="_blank">Los videos falsos creados con IA, la desinformación protagonista de 2025</a>&nbsp;&nbsp;<font color="#6f6f6f">Chequeado</font>

  • Los videos falsos y las imágenes creadas con IA no solo aumentaron en 2025, sino que también se volvieron mucho mejores. Te contamos qué es lo que nos depara el futuro - Gizmodo en EspañolGizmodo en Español

    <a href="https://news.google.com/rss/articles/CBMipgJBVV95cUxPTkxKR3U4MzhzaFo0ZjlCd3N2N0dIUC1wWWw0QVBLc2lkOUNXYUROYlZiYnpSS2xGdnRmTVdnZm9TcC05OEdaU2xsRks1WUxpQldKcXlzNGhNRW5xeVhLRTNiNmdIUmNfX09CSzVST0tROTVVTUhrbk5temFQV25paERLbTBwUEg2T050WnVzek96X2VyT2lkOVRKNjhPdlBMaGNBcldZMm50TmtvZFZSUzA3UWRxOUtSVjdyM3hTbTM2dW90NExRc2tKb1FITVdZNTQ4Nlg1Vm81RXFnM0RwRGZtUE5hdGtQdnhiWS1tLVViREZSR0xteTZ4TGR0cmpYNDJpdUZLUmtYWHVORnBMX29adWxhaVo2X3NXUElDNV96UWJmVGc?oc=5" target="_blank">Los videos falsos y las imágenes creadas con IA no solo aumentaron en 2025, sino que también se volvieron mucho mejores. Te contamos qué es lo que nos depara el futuro</a>&nbsp;&nbsp;<font color="#6f6f6f">Gizmodo en Español</font>

  • Los archivos de Epstein: de texto censurado que sí se puede leer a documentos que desaparecen - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMi0wFBVV95cUxQOWhRM0hOc040Tjg2Yl9sR0N5TE1LV3M5c3BRZlkwY3BoOC1xM0RwdnItVi1GMGFBTVpKbVo0eVNkOV9KZDJxQzRUWUM1aTR3ZW4yclVmRWNRWXVtSzZ6bG5hY2k5WGc5ZmREQ3h4MmFnZGtmSlJoMlJCRmxHM21WSUVWWFE5V3BSS0xWeXo3aTJ4cUdncFNONm1oRmM1MldYcmYzcnpjSlZvRFVuczNHU2J1NG1kMUstR3NOWTlNWjFMM2RINzdRZlRNSURtbUROS0l30gHTAUFVX3lxTE1KNGVzTFItSGdDaUo0OW9UeHJraldaRTV4V21WWTUyVFpWMWlVYXFIM1Y1NFBmNVBqMk1QNTJOQ1NwdlNwYjNwTmZEc2NmVUtfWVNENldmMnBtWldkamtmVUhvYm5KUldDS2tfVXZTMHNXb1htdUl0SkJOajJEQjZ3MEJHc3lXNURRUDR2MnNpNnRsNmlwSTVMOUJxT1RldlR1eHQwSXdyMkpmcklDR0RTdjZfQ0ZiaTMtV0c1bU15NDlPdEpab2VGY01aeGNFdXNfcTg?oc=5" target="_blank">Los archivos de Epstein: de texto censurado que sí se puede leer a documentos que desaparecen</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • YouTube bloquea canales que publicaron tráilers de películas falsos con inteligencia artificial - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMi0wFBVV95cUxOanNwXzlRLXRZbG5qMFFCOVNOaVNJcTZfTVhxaGU1d2lEZ3g0UlhpWGkzTVAydXJEeXhpdXR3b3FmQURLTlFnb0JHM2ZpNWdXUm95dU54RUZqc29ZNk1icTkzdDcza1dmYkYtMTFHQm9md1cyckM0WG4tTDNoaHZiV3U4dUZfQUVBWXRiU3hQb1ZUSW9paXVleWtYRHJwQjRVQlJCMkVNcW02aE9SeVdOU2lIWkxlZlZFLVlWRE5UaUhZNkoxRUxJUUthQlcwRUp0ckRz0gHuAUFVX3lxTFA3em13czJSV2cyZklTaVNaWXd1cFEwY2FZOUZGNDhZMzlaREY4SU1aQXh4UTkzNzdYOHpfbVFRTE5NTlFPQ3VXdU1FQ2F2Q3g4bEl5T2JUbkNBOC1EOEhCV01xejBGaDRBamc5NTluTlpnVW1JX2dTTUhJVUo3LUNkX040OGJ1UllCcjMwM2NMZ21MSDMzRjhvbFN1QV9xYkc5Zkt6NGFLc1ctVU5qcGdGN0NkYy1Nek9sSGR2eTZsZ3hZWnhNTERSd2wxTkN1cC1LdE14QTlOUjBZbHdocFVLTXdrWGxtZnhOcUZLWUE?oc=5" target="_blank">YouTube bloquea canales que publicaron tráilers de películas falsos con inteligencia artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • YouTube vuelve a dar un golpe en la mesa contra la IA. Acaba de cerrar dos canales que la usaban para crear tráilers de películas falsos - EspinofEspinof

    <a href="https://news.google.com/rss/articles/CBMi4AFBVV95cUxQWS1lUWcxYi02R0JrOEQxNTd1dGV5cFJNLXBHLTQ5bWo1aUxENFJremc5MDE5TVpibG5xWEJTLVFOd1dwRWw1Tm5NZ3lpQXlRcC1WNGN3ajNiZ1pyeDFDdG9tMDQ0anZfWXQ3QjFTazFVN0FMSFBnby1rNUJubG1yTFFybHo4cFlQVjZ5eGFfaEJRcEY3Z2ppbzJUbG9XVE9qZTFKQ0tqeVEyMG43Smh4SVlrUlF0dHZEVEFuZmhHeEpBR2ZiekV6bWM1OFZqdGFvV1ZWSVlnUTd6ZTU2M3FkR9IB5gFBVV95cUxPSjZyNFNocElyTlFKajZrSlQ0ZFF1UGJWNmZBMUFMY0FkSkQ3Tl9iMlFtbjhmb1E0LTJnM25mLXlBYWNsbGpZYlE2Sm1XR0wtQVpNYS1mbjlGT21yZ2Qxc25KNjJOMjJHcXJidGN6ODhicFQ5TDZoVFNiSDBkUnNESmJlVnFTWGdKeEp6Z3FBeTd0U3RuQ1RnNGM4cEQxUHJ2SDZvX2JUMmdDOFQySi11YWUxTzAtX0dKeGU3S0RRSFV4VnIyeE9iMG0xcGc0YnZVdTVjNVJIQXhXaGdtWW9RRzdGTld1Zw?oc=5" target="_blank">YouTube vuelve a dar un golpe en la mesa contra la IA. Acaba de cerrar dos canales que la usaban para crear tráilers de películas falsos</a>&nbsp;&nbsp;<font color="#6f6f6f">Espinof</font>

  • Arturo Calle alerta por videos falsos creados con IA para promover inversiones fraudulentas - YahooYahoo

    <a href="https://news.google.com/rss/articles/CBMiiAFBVV95cUxQYkVXTmtwai1mLXB6dG10V3ZmckRGSzBNbF90TXNlQlVCV3JwQm1rUi1USTYwSkFVeDlDUzlueklRZDQzSzVCYWRIS01QV3ZLWlo3Vm5GWUJOOEZyUDhEOFUyTTIxaHd1WTBicUJ6alc3YmFfdWJkREFLZUhaNk5hUXlDcmFrSjRO?oc=5" target="_blank">Arturo Calle alerta por videos falsos creados con IA para promover inversiones fraudulentas</a>&nbsp;&nbsp;<font color="#6f6f6f">Yahoo</font>

  • Este informe alerta de cómo est��n colando vídeos hechos con IA en YouTube y España es el país líder en visualización - RedesZoneRedesZone

    <a href="https://news.google.com/rss/articles/CBMijgFBVV95cUxPLWNjSGpCUl93VkJtM3puQU1iTjRYUERzR2xaRm1nbWVIQTBNZWtpVzBSTmU3M2lMRWFuT25JUzNCeXRuTlRqcDBseEJUNlJ6b0EwaGNkd0dLWTJZbUlFYXBBb2ZFRGl2TThlS0EyV1d5OHZVUzFneWtNZkV0RENVUGJBSDRGOFh3WF9DaThR?oc=5" target="_blank">Este informe alerta de cómo están colando vídeos hechos con IA en YouTube y España es el país líder en visualización</a>&nbsp;&nbsp;<font color="#6f6f6f">RedesZone</font>

  • Expertos revelan si los videos creados con IA están creando o no confusión en la vida humana - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMizwFBVV95cUxQTXhVZGVzSm9tamtEWUF6SVE3Y3dWN0wtSFRzN2ZtM2wtWGhmNGFvZGU5UDNMNmxoTkxSXy0zMm1XTmJWNWl5QU9FOUF0Q1RRLVNrX1JmUTk3THF6Tkc4TG5mcWpPQmdjS0NyV2RJdmNQeFRhNHY1RjgzNDdHQVQxeWV0Ykk5UlJMVHRaRnRaTS1TTjNfN0lHSDdZV3MzQV9xQkJqdVRNVHdTaDVVZElGVzBMUmJEVVJoMzc5MXl4dFZBa19qTU1hWGpNcTREVzTSAeoBQVVfeXFMTXBDV19mbjF0M3pDcDhVYnlUQ0Nablk3eExuVXU1dnBGOE5kSjdkeWZacXdUMS1SOXphaEw4NzI0SnR3MmJyT29jM3AzTE5uZVBjRTR6VlBnREhwWXZabmRHdlVraHJWNTk5eGwyNUJra1VLaEQwVWVCOU01R2dGTkpJWU1lSnFUWGI0TmRyakNfaWNqNG5zZU9UMWxFNGdONVRaZHFYQWNSWmRpd1lIbTdPZ18xWFlsVkZMOUxEN1RkbDU1QlZzQWRyMVMzVTNDY3VQS3BDVmhpeWJlRVozQWF1UDRHMXZPaTdn?oc=5" target="_blank">Expertos revelan si los videos creados con IA están creando o no confusión en la vida humana</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • Internet se ha llenado de vídeos con el nuevo tráiler del 'GTA VI'. El único problema es todos se han hecho con IA - XatakaXataka

    <a href="https://news.google.com/rss/articles/CBMixgFBVV95cUxNQnMyc2IzS2xJaG1FaVJPaUEwUk56T1dOZVR0cDFFME1LZ05kcDM3Tlc5TF96R29xRGl0TE5iZmotOF9hMFRtN0ZGT3BaRW16dmxaTDlENURrNEw0NHlqNXZ2Wl95ZjNPUEdQcUI2bTByTnIwU3h0MWxFcGxITUU4dGREQ3BMUHJYZXVxbWt0ckFkUERUdjhlNHJ1VThGVzAxU091aWJKTXhhQVJWejV6aEFFUmtxZkhPLThHQUZXaU9iTVhUTXfSAcsBQVVfeXFMT3ZhR0ZiTVdyT0hZZ1JNYnJIZS10dk5oa0JxN0ZxMDV6MnpCUlVoczl6VHdtS2xOTDNKX2ZSXzNRckh0T2pZX1pXUHYxYVhMS0NNZFV0RlZLNXV5Z0VjekQ5clJla1RyeVF1NGpiUGlMRk5tUmRQa1hRZ3ZKajVLT1hIb19XcWFDUi16dkEwV3VuWkQ4SW9abnFydndNMlMtNjhBM004bktvMVgxeVk2Z2xtaGFJUWZuVDh5c1VrSjBWRVEzcENXQ1BjRVk?oc=5" target="_blank">Internet se ha llenado de vídeos con el nuevo tráiler del 'GTA VI'. El único problema es todos se han hecho con IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Xataka</font>

  • Vídeos que parecen reales pero no existen: el peligro de la IA en redes sociales - DeiaDeia

    <a href="https://news.google.com/rss/articles/CBMilgFBVV95cUxOMUFIOGYyT2ZVTVpvVHFvMEVndHR4cG5BM2ZIVkJiS01jU1lIY0xZUVdBRld1Zi1KZ1diYzVkc2MxTUlnSWNHbU00V0ZYbzlMR3daMWVLNEQxRFF3ZmVGdEdxN3JlMVJGSE9Gb2tzQ1J3Vk9YY1c0SEowS3pkRDVyV2FqUzVUTDNRWHd3S3ZpdC1sQWRUbUE?oc=5" target="_blank">Vídeos que parecen reales pero no existen: el peligro de la IA en redes sociales</a>&nbsp;&nbsp;<font color="#6f6f6f">Deia</font>

  • BulerIA: vídeos falsos de miembros de CCOO comiendo una mariscada - Radio Popular de BilbaoRadio Popular de Bilbao

    <a href="https://news.google.com/rss/articles/CBMingFBVV95cUxQdDM5VmI3Vmt2clN4Q0VvYTBfUjhWOUdYR3hiSGtqdlFKX01seDBxd0pqdWpneWd2U1pKY3N0b1k0X3RyTXhlRHg5RGhDUTNNM2wzOHl1QURYcS1fbFQ1Y0JaWlo1MnFxeERsVjFYd1lDRS12V01uaHVyMFk2cnhjMlRmT09GNG5vQzlvZUk0WGM0cGVaaUdiY25HVG15UQ?oc=5" target="_blank">BulerIA: vídeos falsos de miembros de CCOO comiendo una mariscada</a>&nbsp;&nbsp;<font color="#6f6f6f">Radio Popular de Bilbao</font>

  • Propaganda rusa difunde videos falsos en TikTok sobre el supuesto cerco de Kupyansk - Noticias de UkrinformNoticias de Ukrinform

    <a href="https://news.google.com/rss/articles/CBMizAFBVV95cUxNOU1vMTlUcUZxa0s0RzhKdUw2aUR2Y005dURhaWhWYV9ndHdHMWZQazZCbU93bW9hWjZlV0hYb182UzlOVUZ1c0RJeHQxWlRYbzQtd3B0RzMySFVSYVgzVkQ4ZEJyVTZtamRzNjBCUmFDTm4wM0otRDliZDVKZkJyQzQ3SC1aYUJ2UmViX2hoVzNvSTZXVkItY3NhckZ1OUxxZEVoOEFRanBHbkxLbXg5dXQySDZ0OVZmbTdDcm9ZcmRwbnpHaEtsbmxqMUHSAdIBQVVfeXFMTWI4WWhhR0ZFdmRUaEJDVGQzeE9vUm9jUFhMRXJZNVllVlVWX29IMFg4ZUJJT1lqX1N4dUdFTzZ1VDY0UWsyQjZJUld0R0NHV2pra3FCZ1RGWUo3SjRzRmVFX1liQ00tVDJxbWNuTTY3M3BVaVlrQWlyNkx0Qk9vYzdsdW5NWkc4blNvNnpoem1xRVREZmd6bnBBR2JZOG9HZl9CbG5pekpaWjNzWlBSeWIyb1dkOGN6eVpGMFBKdVpxRWx6RjFRSEhtV0JzNlhUczln?oc=5" target="_blank">Propaganda rusa difunde videos falsos en TikTok sobre el supuesto cerco de Kupyansk</a>&nbsp;&nbsp;<font color="#6f6f6f">Noticias de Ukrinform</font>

  • Alerta por la difusión de vídeos falsos de mujeres siendo estranguladas creados con Sora 2, la IA de OpenAI - 20Minutos20Minutos

    <a href="https://news.google.com/rss/articles/CBMi7wFBVV95cUxQcjhvX2ZhVUxJRFhVZTlQZk5lbFJTdnEwS1ZpU1NGMHhtX2lqblhUNmRkVW4zTFlkSHM3U1RuWGtQUWlweHlRa05JS1MyNE1oZTg0emZWVFVSUlBydUxJZkNFMWxoTmdlc1dPMjU3N2IybDlGd3Z2NzRuV2NpRVQ4b20xZThUbVU0LW1UVi1KajZ3TUVBY0NRSHd4OTQ4UU1YeHhCVFFsV1dnSmhsUGZhQUFpZ2RleHhmTTVsZTBlWGt0NUdPX19tdmxCMzlvSzdLakZBSVpWWExFNXhBZGJ5NUZJQ3dlZjNTOEM0V2NZSQ?oc=5" target="_blank">Alerta por la difusión de vídeos falsos de mujeres siendo estranguladas creados con Sora 2, la IA de OpenAI</a>&nbsp;&nbsp;<font color="#6f6f6f">20Minutos</font>

  • Imágenes y vídeos falsos, bulos, injerencias electorales... La IA se convierte en la gran protagonista de la desinformación - LaSextaLaSexta

    <a href="https://news.google.com/rss/articles/CBMi-gFBVV95cUxOQk1qTXYxTUZHQnJfanhGTnZYa3cxN3ZyQUNKOTB0bjNBT1FOSVN2QVB6ckVPQ04wem5pcTdSWVR5UkVlSHJjanFuSF9DejQwbENJZlJZUWVVYVJJa3F3U1ZMYVRPSUc5MFF2aHlKMHlzclBtTXhYUnVxT1NILWRPNy1GOWtCMTJOcThWVk1TY2hlSDB4VEJDX0NBT0hFN05Na0RkaUxBU3FRaHZYVmw2Y2hDNUM4ekIycjNHM2F4blBhZldMemNNN3o2OVctSkE5TExpZ1pVSU9HdkNESVdVLWExSVl0X2kxYVJLdllkdFE3R1FoMTk4VGVn?oc=5" target="_blank">Imágenes y vídeos falsos, bulos, injerencias electorales... La IA se convierte en la gran protagonista de la desinformación</a>&nbsp;&nbsp;<font color="#6f6f6f">LaSexta</font>

  • Cinco consejos para no caer en vídeos generados con IA como este de un toro acorralando a una mujer - RTVE.esRTVE.es

    <a href="https://news.google.com/rss/articles/CBMi1gFBVV95cUxOT2NTUGxjcHNWWVp0cWx1bjcwdHpRY1Z4alROVF95UmFSel9ndzQ3WkJ5NVZ1Tk5NY3RlbHpGdVg3V2RKcF85TmZuX0hDVlFFSEFGVzF2S21rR0t5bTNwY0ZVVS1jaWxBR1ozdVFjUXJQbVFHLXdTVmQ2SzQzbTE5UW5SaUNISm91QTJQYnBrZk96bGhXVFZ6STBBbDZQdHEyOHZ4aUpKc1NPVVFUM1NxRW1hM2lKa3lrYTNuUy1ELVA3TFl2cWJuVWxsaGw3dFRacC01WFd30gHWAUFVX3lxTE1WLXh5N3ZTQjJzbTFGQTd4X0lpUlRleXY3bjczV2ZFbWJreTVwdHFabi1ROHNhLUZZVjB2bUQtbHMyYVQyU2UyTzl3V0dxaFBRSGV2ZkNFLVZkU0hhZ3JCT3JZRWRNT2J2WVRfc1N5T0dNaUlCb2x5VE54RUlsQ0k5bkxYNm5va0llZlRycXRkSVhqdUxUZ2dJSGFseUxXeExsdWR5TF9OZzFlWXFDX0FGWHdvaUl0S2xCUWVGcFJETHd5WVBxMkFKVVRQMmUweDVneVNNUUE?oc=5" target="_blank">Cinco consejos para no caer en vídeos generados con IA como este de un toro acorralando a una mujer</a>&nbsp;&nbsp;<font color="#6f6f6f">RTVE.es</font>

  • Ni Georgina ni Rosalía: así engañan los vídeos falsos creados con inteligencia artificial - antena3.comantena3.com

    <a href="https://news.google.com/rss/articles/CBMi6gFBVV95cUxNNmlPb1BHYkd1ZGt6LUhqSmdmQ2hhT1Vlai1rdHN1U1VNcTVXRW5iSXBKdGJrY1B5cnBka1pkMVF6VDVwRV9HSk9DaUVGckRzTi0zTU1wYXhnSGtNX2NjZlBPeE04OUs4elVqRnNDUFJ1VjRGUTk4NGtfLWpENTRDcUYxTUxaazBnaEdkUXRUcE9WLVg0bURjV0Q1Q2pGNFVfWlA2b1pvRy15WWhSQ0tvYzd4QmxTZndyc0NrM1k0RzBLN1RWdHRZYVBzOF96TnlFRkhzWnBmWDEyY19UY29aSmRQTnFHMWFCblHSAeoBQVVfeXFMTTkyRWd5TXRHcW5BSE5Xdl9zOURLRXVjQXlXTFIzUFlPZnhEQ1ZnME11RlAwbVoyZGFLMFlJMUZadllXelZvS2JSbDdYdnJnZFhMUHlBVW4tU2VJampmbkEzQk5kOHphRUV6NG5XN3N3b2NidU9ERjM5NmcxdUxVejY1RHBnTlliUWJDb21zemlJREdxZlMwX0QyNVdtWGI0MVFIZlpfMDFHYW50NkhQOWo5amVxMDAtSXFhb09hUnI4RnFMMWROU2xEdVhXQmZRNU5CS21WSm9PRG5YWUxyX05NRE52M2Fkc0h3?oc=5" target="_blank">Ni Georgina ni Rosalía: así engañan los vídeos falsos creados con inteligencia artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">antena3.com</font>

  • Cómo saber si un video viral fue creado con inteligencia artificial o no - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMitAFBVV95cUxNOHVIUWx0enB6cmtEYzBfUHBScF9XOEpoTGVCZWJEZGoxa0hQZERlcExWUDlTeUt3blMtMzBMWnNuSzh1SjkxSDFzcTd1R2x0eWh6UzlHcUR1ZXEzLU14S0ZreDQzR0lsMTM5bjRVNUpqTUtRdUkzQnczam9KajNMX21EOG5YNWExbzg3d0YtZTFhRFVleHRtZHVzdU5QdW9fNjl1anNrUkhyQUlCSVhCNDBRV1bSAc8BQVVfeXFMT3d3bWo2NFBOazZ2dDZwc0ZOM2pwaTU2R0ctYkpQc19hd0t0RW1RQVFLNWZ2V21FTTBNMzlPeGQxWkxGY3FURjRMSUVtZzdqU3FBMlc1dTRNM1A0MXVNaDRtX05OZDJJVzF5bHhCOS1aVkVCT1RhWWJ4M2VuTlpxci1XTEdEaUh0TnlWLVZKOFhYTFJYNlpNaTUxOHprTHd4WmpsZnhHN21ZbzBrbGdVOGQ2dmh1SENwUEdhWjlpNC0xc0VXMGkzVmNqNDZMRFhB?oc=5" target="_blank">Cómo saber si un video viral fue creado con inteligencia artificial o no</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • Los videos falsos de políticos hechos con IA fueron protagonistas en las elecciones 2025 - ChequeadoChequeado

    <a href="https://news.google.com/rss/articles/CBMixwFBVV95cUxOQW1pYmhOY0l0N0U5TDNmSm05QlJ1Q3pwc3YzNEFFa29Ia2dyR2lfMERzN0xtQWNWWmJSTnRfQjN3Mnl4aVFiOEUwTUlpSWtoaUNUNkc2OG1hMklVSEdnRWNUNGEyYmpQdHJzTEtWcDhGeks0T1c3VFQ1WmhqcDZyRXNvdXdnZTBZTXg1bkxOTmloOGkwTVNzOFVpN3JCYzZmRkg3VjBKMjlpWi1URWhITFJWQzloMFYyZlR0dlgta1owcmp1U0pV?oc=5" target="_blank">Los videos falsos de políticos hechos con IA fueron protagonistas en las elecciones 2025</a>&nbsp;&nbsp;<font color="#6f6f6f">Chequeado</font>

  • El miedo a no distinguir qué es real ya está aquí: la inteligencia artificial inunda las redes con vídeos - LaSextaLaSexta

    <a href="https://news.google.com/rss/articles/CBMi-gFBVV95cUxPMi0tWGZfcXprV09jcG9wcVZsRXVTVUwzaE5HLVh0VUVMNl9wVEZxaHZJUDAtYVktX2FTVlhrZy1Sb1N3TUF1SnRUaXBibkdKWnRDWnhvUHpYRlJLQmk0dTFDaVIyMThZdnNnRTBCMmprY2I0RjNERG80MTRmSUtaZERkR0w0anM3ZWJZU25sYlRMYUZobXF6MV9sVF9Sc1gtVVM4X3ZIeS1lclltLWt6c2t5dUNaWDJMNGdoNEY4S2lRdUtMeEc1V0lMZFltMlgtLTd4ZlkwOGk2OVdZcGhHeHpwQnJhcERhb2NRZlNPMWtLMWpjYjNyNW9n0gH6AUFVX3lxTE1sZ3JvX080aFd5ckE1Sm9zcERCUG05cDRTZjJMY0t0U2xSMmlsUWlDTHB3M3NsU2tCSVp4ZWM4NEtQeUtORDVmZHlxVHMxakJ2T2c1RkFyYUdVSkFsb3AxVWVHLWJfSW5aUHg4MXA3Uy1Yd2xYWmNqSGlfcFlZd0RLTUVvdHIyejdnV2YxX2xhRVdiZTczN0tReG5rQ2UteHRKZ0tPY1pENE9ZS090SGVrUW1LYUVRN29ZTVBQeUIyY2RyekJObGZpeUJnekdmamd2VUFld1Z0bTFBTE96Vkw5dkRaMDNySU5IZVZHaEkwd2NOSmpFZ1dISEE?oc=5" target="_blank">El miedo a no distinguir qué es real ya está aquí: la inteligencia artificial inunda las redes con vídeos</a>&nbsp;&nbsp;<font color="#6f6f6f">LaSexta</font>