Seguridad Deepfake: Cómo la IA Protege contra Videos y Audios Falsos

Seguridad Deepfake: Cómo la IA Protege contra Videos y Audios Falsos

Descubre cómo la inteligencia artificial avanzada está transformando la seguridad deepfake, detectando videos y audios falsificados con una eficacia superior al 92%. Aprende sobre las amenazas digitales, fraudes deepfake y las tecnologías de verificación que protegen a las organizaciones en 2026.

1/142

Seguridad Deepfake: Cómo la IA Protege contra Videos y Audios Falsos

49 min de lectura9 artículos

Guía para principiantes en seguridad deepfake: entender las amenazas y cómo protegerse

¿Qué son los deepfakes y por qué representan una amenaza en 2026?

Los deepfakes son contenidos audiovisuales manipulados mediante inteligencia artificial (IA) para crear videos, audios o imágenes falsificados que parecen reales. Gracias a avances tecnológicos, especialmente en el campo de la generación de contenido con IA, los deepfakes han evolucionado rápidamente. En 2026, representan una de las amenazas digitales más peligrosas, ya que pueden ser utilizados para fraudes, campañas de desinformación y ataques cibernéticos dirigidos.

Las cifras son alarmantes: en 2025, más del 80% de los videos falsificados distribuidos en plataformas sociales estaban relacionados con deepfakes. Además, las pérdidas económicas derivadas de fraudes impulsados por deepfakes superaron los 9.500 millones de dólares, un aumento del 120% respecto a 2024. La amenaza no es solo económica; también afecta la confianza pública, la reputación de individuos y organizaciones, y la estabilidad política.

Por ello, entender qué son y cómo funcionan los deepfakes resulta fundamental para comenzar a implementar medidas de protección efectivas.

¿Cómo funcionan los deepfakes y qué los hace peligrosos?

La tecnología detrás de los deepfakes

Los deepfakes utilizan algoritmos de aprendizaje profundo y redes neuronales para analizar y replicar patrones en imágenes, audio y video. La técnica más común es el uso de Generative Adversarial Networks (GANs), que enfrentan a dos redes neuronales para crear contenido cada vez más realista y convincente.

Por ejemplo, un deepfake de un video político puede mostrar a una figura pública diciendo cosas que nunca dijo, con movimientos faciales y entonación que parecen auténticos. La sincronización de labios, gestos faciales y expresiones emocionales se perfeccionan con cada iteración, dificultando la detección visual.

¿Qué hace peligrosos a los deepfakes?

  • Fraudes y estafas financieras: Los deepfakes se usan para suplantar voces y rostros en llamadas, correos y videos para engañar a empleados o clientes, logrando transferencias fraudulentas o accesos no autorizados.
  • Campañas de desinformación: Video y audio falsos pueden manipular la opinión pública, influir en elecciones o generar conflictos sociales.
  • Atentados contra la reputación: Personas públicas y privadas pueden ser víctimas de contenidos falsificados que dañan su imagen.
  • Phishing audiovisual: Técnicas de ingeniería social usando videos falsificados para robar datos o instalar malware.

En 2026, las tecnologías de IA han avanzado tanto que detectar estos contenidos requiere soluciones especializadas, ya que algunos deepfakes son casi indistinguibles a simple vista.

¿Cómo protegerse frente a las amenazas de los deepfakes?

Implementar tecnologías de detección de deepfakes

La primera línea de defensa consiste en usar herramientas especializadas de detección basadas en IA. Estas tecnologías analizan videos y audios en busca de inconsistencias sutiles, como errores en la sincronización de labios, movimientos anómalos o anomalías en la iluminación y sombras. Según los últimos desarrollos, estas soluciones alcanzan una eficacia superior al 92% en detectar contenidos falsificados.

Muchos sistemas de detección también utilizan blockchain para verificar la autenticidad del contenido, asegurando que el video o audio no haya sido manipulado después de su creación original.

Fortalecer la verificación de identidad

El uso de autenticación biométrica robusta es clave. Tecnologías como reconocimiento facial, huellas dactilares o verificación mediante datos biométricos en tiempo real dificultan el acceso fraudulento basado en deepfakes. La integración de estos sistemas en plataformas digitales ayuda a verificar la identidad con mayor precisión y rapidez.

Capacitar al personal y aumentar la conciencia digital

El factor humano sigue siendo fundamental. Capacitar a empleados, periodistas y usuarios en la identificación de contenidos sospechosos puede prevenir muchas estafas. Por ejemplo, aprender a detectar signos de manipulación en videos o audios, como errores en la sincronización o anomalías en la calidad visual, puede ser decisivo.

Además, fomentar una cultura de verificación y usar fuentes confiables reduce la probabilidad de caer en campañas de desinformación.

Utilizar marcas de agua digitales y otras medidas de protección

Las marcas de agua digitales son una forma efectiva de autenticar el contenido audiovisual. Estas marcas, integradas en el video o audio, permiten verificar si el contenido ha sido alterado. Varias plataformas están adoptando estos métodos para certificar la autenticidad y prevenir la distribución de deepfakes maliciosos.

Prácticas recomendadas y recursos para comenzar

  • Actualización constante: Mantente informado sobre los últimos avances en detección y tecnologías anti-deepfake. La lucha contra los deepfakes es dinámica y requiere estar siempre un paso adelante.
  • Utiliza herramientas confiables: Plataformas como las que ofrecen detección automática con alta precisión (superior al 92%) son esenciales. Algunas soluciones también integran análisis forenses digitales y verificación en blockchain.
  • Verifica las fuentes: Antes de compartir contenido, comprueba su origen y autenticidad. Desconfía de videos o audios que parezcan demasiado perfectos o que provengan de fuentes no verificadas.
  • Implementa protección biométrica: Usa sistemas de autenticación biométrica en accesos y comunicaciones sensibles para reducir riesgos de suplantación.
  • Formación y sensibilización: Participa en seminarios, cursos y talleres sobre ciberseguridad deepfake y detección de contenido manipulado.

En este escenario, los recursos tecnológicos y la formación del personal son las mejores armas para enfrentar las amenazas de los deepfakes. La colaboración entre empresas, gobiernos y expertos en ciberseguridad fortalecerá la protección contra estos contenidos falsificados.

Conclusión

Los deepfakes representan una amenaza real y creciente en 2026, afectando tanto a individuos como a organizaciones. Sin embargo, con una combinación de tecnologías de detección avanzadas, autenticación biométrica robusta, prácticas de verificación y formación continua, es posible reducir significativamente los riesgos. La clave está en mantenerse informado, adoptar soluciones innovadoras y fomentar una cultura de protección digital consciente de las amenazas emergentes. La seguridad deepfake no es solo una cuestión tecnológica, sino también de estrategia y conciencia, que debe ser prioridad en cualquier plan de ciberseguridad actual.

Tecnologías avanzadas de detección de deepfakes: cómo la inteligencia artificial supera el 92% de eficacia

La amenaza creciente de los deepfakes en 2026

En 2026, los deepfakes se han consolidado como una de las amenazas digitales más peligrosas, afectando tanto a empresas como a individuos. Estos videos y audios falsificados, generados por algoritmos de inteligencia artificial, se utilizan con fines delictivos como fraudes financieros, campañas de desinformación y ataques cibernéticos dirigidos. Según datos recientes, más del 80% del contenido de videos falsificados en plataformas sociales en 2025 estaban relacionados con deepfakes, lo que evidencia su prevalencia y peligrosidad.

Las pérdidas económicas por fraudes impulsados por deepfakes superaron los 9.500 millones de dólares en 2025, un aumento del 120% respecto a 2024. Esto demuestra la necesidad imperante de contar con mecanismos efectivos de detección y protección. La buena noticia es que, en respuesta a estas amenazas, las tecnologías de detección basadas en inteligencia artificial han alcanzado una eficacia superior al 92%, convirtiéndose en herramientas clave para fortalecer la ciberseguridad deepfake.

Innovaciones en detección deepfake impulsadas por IA

¿Cómo funciona la detección avanzada de deepfakes?

La detección de deepfakes con inteligencia artificial se basa en analizar detalles sutiles que no son perceptibles a simple vista. Estos algoritmos buscan inconsistencias en movimientos faciales, errores en la sincronización de labios, patrones de iluminación anómalos y anomalías en el flujo de audio y video. Por ejemplo, algunos sistemas identifican pequeñas distorsiones en la textura de la piel o en la forma en que la luz refleja en los ojos, que suelen ser indicativos de manipulación digital.

Además, estos sistemas emplean modelos de aprendizaje profundo que aprenden a distinguir entre contenido genuino y falsificado, mejorando continuamente su precisión a medida que analizan más datos. La incorporación de redes neuronales convolucionales (CNN) y técnicas de análisis forense digital ha sido fundamental para alcanzar tasas de detección superiores al 92%.

Los sistemas forenses y algoritmos de verificación audiovisual

Las tecnologías forenses digitales han evolucionado rápidamente en los últimos años. Incorporan análisis estadísticos y técnicas de blockchain para verificar la autenticidad del contenido audiovisual. Por ejemplo, algunos sistemas almacenan huellas digitales de videos originales, permitiendo comparar cualquier versión sospechosa y detectar modificaciones en tiempo real.

Empresas como Axis Communications han desarrollado soluciones específicas que analizan metadatos, marcas de agua digitales y patrones de compresión para autenticar videos y audios. Estas herramientas permiten detectar deepfakes con una precisión que supera el 92%, incluso en contenidos altamente sofisticados.

El uso de algoritmos de verificación audiovisual también se ha extendido en plataformas sociales y medios de comunicación, ayudando a reducir la circulación de información falsa y fortaleciendo la confianza en los contenidos digitales.

Aplicaciones prácticas y beneficios de las tecnologías anti-deepfake

Protección contra fraudes y desinformación

Las empresas y organizaciones están integrando estas tecnologías en sus sistemas de seguridad para prevenir fraudes financieros y campañas de desinformación. Por ejemplo, bancos y plataformas de pagos digitales utilizan detección basada en IA para autenticar videollamadas y verificar identidades en tiempo real.

Los gobiernos también apuestan por estas soluciones para validar discursos públicos y asegurar la integridad de las comunicaciones oficiales. La incorporación de sistemas anti-deepfake en la verificación de identidad ha aumentado en más de un 70% en grandes organizaciones, reforzando su protección frente a ataques cibernéticos.

Fortalecimiento de la autenticación biométrica

Las tecnologías de autenticación biométrica, como reconocimiento facial y huellas digitales, se han complementado con sistemas de detección de deepfakes para prevenir suplantaciones de identidad. La combinación de estas herramientas aumenta significativamente la seguridad en plataformas digitales y reduce el riesgo de accesos no autorizados.

Por ejemplo, algunos bancos ahora utilizan sistemas que analizan en tiempo real si el video de una videollamada presenta características sospechosas, garantizando la legitimidad del usuario.

Desafíos y tendencias en la lucha contra los deepfakes en 2026

Retos tecnológicos y éticos

La rápida evolución de las tecnologías deepfake plantea un constante desafío para los sistemas de detección. Los creadores de deepfakes perfeccionan sus algoritmos, generando contenidos cada vez más realistas y difíciles de detectar. Esto obliga a las soluciones de defensa a mantenerse actualizadas continuamente.

Además, el equilibrio entre seguridad y privacidad es delicado. Algunas tecnologías de detección requieren analizar datos biométricos invasivos, lo cual puede generar preocupaciones éticas y de protección de datos personales.

Innovaciones y colaboraciones globales

En 2026, la tendencia apunta hacia la integración de blockchain para verificar la autenticidad del contenido, creando registros inmutables que facilitan la detección de manipulación. La colaboración internacional entre gobiernos, empresas tecnológicas y organizaciones de ciberseguridad es cada vez más importante para establecer estándares globales y reducir la circulación de deepfakes maliciosos.

Además, la incorporación de inteligencia artificial en los sistemas de detección continúa mejorando, alcanzando tasas de eficacia superiores al 92% en diferentes entornos y plataformas.

Acciones concretas para fortalecer tu defensa contra deepfakes

  • Implementa soluciones de detección de deepfakes: Busca plataformas con algoritmos avanzados que ofrezcan una precisión superior al 92%. La integración con tus sistemas de autenticación y vigilancia digital es clave.
  • Capacita a tu equipo: Educar en la identificación de contenido manipulado, reconocer señales de advertencia y entender cómo funciona la tecnología deepfake ayuda a reducir riesgos.
  • Verifica siempre la fuente: Antes de compartir o confiar en contenidos audiovisuales, comprueba su origen y autenticidad mediante herramientas forenses.
  • Utiliza autenticación biométrica robusta: Combina reconocimiento facial, huellas digitales y otros métodos de verificación para fortalecer la protección de identidad.
  • Mantente actualizado: Sigue las tendencias y avances en tecnologías anti-deepfake, participa en seminarios y consulta recursos especializados para mantener tu estrategia de protección al día.

Conclusión

Las tecnologías avanzadas de detección de deepfakes, impulsadas por la inteligencia artificial, están transformando la forma en que enfrentamos las amenazas digitales en 2026. Con una eficacia superior al 92%, estos sistemas no solo ayudan a identificar contenido falsificado con precisión, sino que también fortalecen la seguridad digital en múltiples niveles. Sin embargo, la lucha contra los deepfakes exige una actualización constante, colaboración internacional y un enfoque ético en la protección de datos.

En un entorno donde la desinformación y los fraudes digitales se incrementan, implementar estas innovaciones es esencial para proteger a organizaciones y usuarios frente a las amenazas emergentes. La seguridad deepfake ya no es solo una opción, sino una necesidad imperativa en la era digital.

Comparativa de herramientas anti-deepfake: ¿qué soluciones son las más efectivas en 2026?

Introducción: la creciente amenaza de los deepfakes en 2026

En 2026, los deepfakes se han consolidado como una de las mayores amenazas en la esfera de la ciberseguridad y la protección digital. La rápida evolución de la inteligencia artificial ha permitido crear videos y audios falsificados con un nivel de realismo cada vez más alto, dificultando su detección.

Según datos recientes, más del 62% de las empresas globales han sido objetivo de ataques mediante deepfake en los últimos 12 meses. Además, las pérdidas económicas por fraudes impulsados por estas tecnologías superaron los 9.500 millones de dólares en 2025, un aumento del 120% respecto al año anterior. La proliferación de estos contenidos falsificados, especialmente en redes sociales, alimenta campañas de desinformación y campañas de estafas financieras.

Frente a este escenario, contar con herramientas anti-deepfake eficaces se vuelve imprescindible para organizaciones que buscan proteger su integridad, reputación y activos digitales. Pero, ¿cuáles son las soluciones más eficaces en 2026? La respuesta está en una comparativa exhaustiva de las principales plataformas y tecnologías disponibles en el mercado.

Principales herramientas de detección de deepfakes en 2026

El mercado de tecnologías anti-deepfake ha experimentado un crecimiento acelerado en los últimos años. Varias plataformas combinan algoritmos de inteligencia artificial, análisis forense y tecnologías blockchain para ofrecer soluciones robustas. A continuación, analizamos algunas de las más destacadas.

Deeptrace (ahora Sensity AI)

Sensity AI, anteriormente conocida como Deeptrace, ha sido pionera en la detección de contenidos falsificados mediante deepfake. Su plataforma combina modelados de aprendizaje profundo y análisis forense para identificar inconsistencias en videos y audios.

Ventajas: Alta precisión, superior al 92%, integración con sistemas de autenticación y una base de datos en constante actualización que cubre nuevas técnicas de deepfake.

Limitaciones: Costos elevados para empresas pequeñas, requiere infraestructura tecnológica avanzada y entrenamiento especializado para su uso óptimo.

Amber Video

Amber Video ofrece una plataforma basada en análisis forense digital y verificación en tiempo real. Su enfoque principal es detectar alteraciones en videos mediante análisis de píxeles y anomalías en la sincronización de labios y movimientos.

Ventajas: Facilidad de integración con plataformas sociales y sistemas de comunicación, detección rápida y costo moderado.

Limitaciones: Menor eficacia en audios comparado con videos, y algunos falsos positivos en contenidos con baja calidad visual.

Serelay

Serelay combina análisis forense y blockchain para verificar la autenticidad del contenido audiovisual desde su origen. Su sistema registra metadatos y huellas digitales en blockchain para garantizar la integridad del contenido.

Ventajas: Alta fiabilidad, trazabilidad y resistencia a manipulaciones posteriores, ideal para medios y organizaciones que requieren certificación de contenido.

Limitaciones: Requiere infraestructura blockchain y puede ser más costoso y complejo de implementar en organizaciones pequeñas.

Azure Video Indexer (Microsoft)

La plataforma de Microsoft, Azure Video Indexer, ha avanzado en la detección de deepfakes mediante modelos de IA que analizan inconsistencias en movimientos, sincronización y patrones de voz.

Ventajas: Integración con ecosistema Microsoft, fácil de usar y escalable, con detección en tiempo real y alta precisión.

Limitaciones: Dependencia de la nube, posibles problemas de privacidad y costos asociados a uso intensivo.

Comparación de características: ¿qué buscar en una herramienta anti-deepfake?

  • Alta precisión: una tasa superior al 92% es imprescindible para minimizar falsos positivos y negativos.
  • Facilidad de integración: la capacidad de incorporar la herramienta en sistemas existentes, como plataformas de videoconferencia, redes sociales o sistemas de autenticación.
  • Velocidad de detección: detección en tiempo real o casi en tiempo real para responder rápidamente a amenazas emergentes.
  • Escalabilidad y costos: soluciones que puedan adaptarse al tamaño de la organización sin comprometer la eficacia.
  • Capacidades de trazabilidad: en casos críticos, la capacidad de verificar el origen y la integridad del contenido mediante blockchain o metadatos.

Ventajas y limitaciones de las principales soluciones en 2026

En general, las plataformas más avanzadas combinan análisis forense, aprendizaje profundo y tecnologías de trazabilidad. Sin embargo, cada una presenta ventajas y limitaciones que deben considerarse según las necesidades específicas de la organización.

Por ejemplo, Sensity AI destaca por su precisión y actualización constante, pero su coste elevado puede limitar su uso en pequeñas empresas. Amber Video es más accesible y fácil de usar, aunque puede presentar limitaciones en la detección de audios. Serelay, con su enfoque en blockchain, ofrece una trazabilidad sólida, pero requiere infraestructura adicional.

Las soluciones integradas con ecosistemas en la nube, como Azure Video Indexer, ofrecen facilidad de uso y escalabilidad, aunque pueden verse afectadas por restricciones en privacidad y costos de operación.

¿Qué solución elegir en 2026?

La elección de la mejor herramienta anti-deepfake dependerá de varios factores: tamaño de la organización, presupuesto, necesidad de precisión y el nivel de integración requerido. Para grandes empresas y gobiernos, plataformas como Sensity AI o Serelay ofrecen una protección avanzada y trazabilidad confiable.

En cambio, para startups o pequeñas empresas, soluciones como Amber Video pueden ser suficientes inicialmente, complementadas con buenas prácticas de verificación manual y capacitación del personal.

Además, la tendencia en 2026 es la integración de múltiples tecnologías: combinar detección automatizada con verificaciones humanas y sistemas basados en blockchain para garantizar la autenticidad del contenido.

Prácticas recomendadas para fortalecer la protección contra deepfakes

  • Implementar sistemas de detección en tiempo real en plataformas de comunicación y redes sociales.
  • Utilizar autenticación biométrica robusta y marcas de agua digitales en contenido audiovisual.
  • Capacitar al personal en identificación de deepfakes y mantenerlos informados sobre las últimas tendencias y técnicas.
  • Verificar siempre la fuente del contenido y emplear sistemas de trazabilidad cuando sea posible.
  • Complementar las herramientas tecnológicas con políticas internas de seguridad y respuesta rápida ante incidentes.

Conclusión: protegiendo la integridad digital en 2026

La lucha contra los deepfakes en 2026 exige una combinación de tecnologías avanzadas y buenas prácticas de seguridad. Las herramientas que ofrecen una precisión superior al 92%, integración sencilla y capacidades de trazabilidad son las más recomendables para quienes desean defenderse eficazmente de las amenazas digitales.

Al escoger la solución adecuada, las organizaciones deben evaluar sus necesidades específicas, recursos y nivel de riesgo, adoptando un enfoque integral que combine detección automática, verificación manual y protección biométrica. Solo así podrán mitigar con éxito los riesgos asociados a los contenidos falsificados y proteger su reputación, seguridad y activos digitales en un entorno cada vez más inseguro.

Casos de estudio: cómo las empresas están combatiendo los deepfakes y qué podemos aprender

Introducción a los desafíos de los deepfakes en el mundo empresarial

En 2026, los deepfakes se han consolidado como una de las amenazas digitales más sofisticadas y peligrosas para las organizaciones. La capacidad de crear videos y audios falsificados con un realismo impactante ha llevado a un aumento exponencial en fraudes, campañas de desinformación y ataques cibernéticos. Según datos recientes, el 62% de las empresas globales han sido objetivo de al menos un ataque de deepfake en los últimos 12 meses, evidenciando la urgencia de desarrollar estrategias efectivas de detección y prevención.

Ante este escenario, muchas organizaciones están implementando soluciones tecnológicas avanzadas y adoptando buenas prácticas para proteger su integridad digital, sus activos y la confianza de sus clientes. Los casos de estudio que presentaremos a continuación muestran cómo diferentes empresas han enfrentado estos desafíos y qué lecciones podemos extraer para fortalecer la ciberseguridad deepfake.

Casos de estudio destacados: estrategias y soluciones implementadas

1. Empresa de servicios financieros: detección temprana y autenticación biométrica

Una de las principales amenazas en el sector financiero es el uso de deepfakes para realizar fraudes y estafas, especialmente en procesos de verificación de identidad. La banca XYZ, con presencia en múltiples países, enfrentó un aumento en intentos de suplantación mediante videos falsificados de ejecutivos y clientes.

Para contrarrestarlo, implementaron un sistema de detección deepfake basado en inteligencia artificial que analiza en tiempo real las características sutiles en videos y audios, logrando una eficacia superior al 92%. Además, reforzaron su sistema de protección biométrica, incorporando reconocimiento facial y huellas dactilares en sus plataformas digitales. Esto permitió verificar la autenticidad del usuario y reducir los riesgos de suplantación.

Como resultado, la organización no solo logró detectar y bloquear intentos de fraude, sino que también fortaleció la confianza de sus clientes en los canales digitales. La lección clave aquí es que combinar la detección avanzada con autenticación biométrica robusta es una estrategia efectiva para combatir fraudes deepfake en sectores críticos.

2. Gobierno nacional: campañas contra desinformación y verificación forense

Un gobierno de Europa del Norte enfrentó una serie de campañas de desinformación que utilizaban deepfakes de líderes políticos y oficiales para sembrar discordia y manipular la opinión pública. La estrategia consistió en incorporar tecnología de verificación forense en los medios oficiales y en plataformas sociales, detectando contenido manipulado con alta precisión.

Esta organización también colaboró con empresas tecnológicas para desarrollar una plataforma de análisis forense que utiliza blockchain para verificar la autenticidad del contenido digital. La plataforma permite rastrear el origen y cambios en videos y audios, facilitando la identificación de deepfakes en tiempo real.

Al fortalecer sus capacidades de detección y verificación, lograron reducir la circulación de contenidos falsificados y aumentar la confianza en la información oficial. La enseñanza aquí es que la colaboración y el uso de tecnologías de verificación forense, junto con blockchain, son clave para combatir campañas de desinformación digital.

3. Corporación tecnológica: protección y detección en tiempo real en plataformas de contenido

Una reconocida plataforma de streaming y contenido audiovisual enfrentaba problemas con videos falsificados que afectaban la reputación de sus creadores y productores. La compañía implementó un sistema de detección de deepfakes, que combina aprendizaje automático y análisis forense, con una tasa de precisión superior al 95%.

Este sistema monitorea continuamente la plataforma, identificando y marcando videos falsificados antes de que se vuelvan virales. Además, adoptaron la marca de agua digital y firmas criptográficas en el contenido original para facilitar la verificación de su autenticidad.

Gracias a estas medidas, lograron reducir significativamente la circulación de videos deepfake y mejorar la confianza de los usuarios en la plataforma. La lección práctica aquí es que la integración de análisis en tiempo real con marcas de agua digitales y firma criptográfica puede fortalecer la protección del contenido audiovisual.

Lecciones clave y buenas prácticas para combatir los deepfakes

  • Implementar tecnologías de detección avanzada: herramientas basadas en inteligencia artificial con una eficacia superior al 92% son fundamentales para detectar contenido falsificado rápidamente.
  • Fortalecer los sistemas de autenticación biométrica: reconocimiento facial, huellas dactilares y otras tecnologías biométricas ofrecen una capa adicional para verificar la identidad y prevenir suplantaciones.
  • Colaborar con expertos y plataformas forenses: alianzas con empresas especializadas en análisis forense y blockchain ayudan a verificar la autenticidad del contenido digital.
  • Usar marcas de agua digitales y firmas criptográficas: estas herramientas permiten validar la fuente y la integridad del contenido audiovisual, evitando su manipulación.
  • Capacitar al personal y crear conciencia: formar a los empleados en la detección de deepfakes y buenas prácticas de verificación digital reduce riesgos internos y aumenta la resiliencia organizacional.

Tendencias y avances tecnológicos en la lucha contra los deepfakes en 2026

En el contexto actual, los desarrollos en inteligencia artificial y blockchain están revolucionando la detección y prevención de deepfakes. La inclusión de sistemas con una precisión superior al 92%, junto con plataformas de verificación forense, permiten a las organizaciones actuar rápidamente ante contenido manipulado.

Además, la integración de tecnologías anti-deepfake en plataformas sociales y medios públicos ha sido una tendencia en aumento. Muchas empresas están adoptando soluciones basadas en IA que analizan detalles sutiles en videos y audios, detectando inconsistencias que los deepfakes suelen presentar.

Otra tendencia relevante es la regulación internacional y el establecimiento de estándares globales para identificar y sancionar la distribución de contenido falsificado, promoviendo una mayor transparencia digital.

Conclusión

Los ataques de deepfake representan una amenaza real y creciente para la seguridad digital de empresas y gobiernos. Sin embargo, los casos de estudio analizados muestran que una estrategia integral basada en tecnología avanzada, colaboración y buenas prácticas puede marcar la diferencia. La clave está en mantenerse actualizado con las últimas innovaciones en detección y verificación, y en fortalecer los sistemas de autenticación biométrica y firma digital.

En un entorno donde la desinformación y los fraudes deepfake no dejan de evolucionar, la inversión en tecnologías anti-deepfake y en la formación del personal será esencial para proteger la integridad, la reputación y la confianza en las plataformas digitales. La ciberseguridad deepfake, por tanto, no es solo una herramienta, sino una prioridad estratégica en 2026 y más allá.

Tendencias emergentes en protección biométrica contra deepfakes y fraudes digitales

En 2026, la protección biométrica ha emergido como una de las principales líneas de defensa contra los peligros asociados a los deepfakes y los fraudes digitales. La creciente sofisticación de las tecnologías de inteligencia artificial ha permitido crear videos y audios falsificados que, en muchos casos, son indistinguibles de los contenidos genuinos. La amenaza que representan estos deepfakes para la seguridad digital, la reputación y la estabilidad económica ha impulsado una rápida evolución en las soluciones biométricas.

Las tecnologías biométricas, como el reconocimiento facial, huellas dactilares, reconocimiento de voz y análisis de comportamiento, se han convertido en herramientas clave para verificar identidades con una precisión cada vez mayor. La integración de estos sistemas en plataformas digitales y organizaciones no solo ayuda a autenticar a los usuarios, sino también a detectar contenido manipulado con alta eficacia.

El reconocimiento facial ha avanzado significativamente en los últimos años, pero en 2026, su utilidad va más allá de la simple identificación. Los sistemas modernos no solo comparan rasgos faciales, sino que también analizan detalles sutiles, como microexpresiones, movimientos oculares y patrones de parpadeo. Estos elementos, difíciles de replicar en deepfakes, sirven como indicadores de autenticidad.

Por ejemplo, algunas plataformas utilizan algoritmos que detectan inconsistencias en la sincronización de labios, cambios en la textura de la piel o anomalías en la iluminación del rostro. Estudios recientes muestran que los sistemas de detección basados en inteligencia artificial alcanzan una eficacia superior al 92% en identificar videos falsificados.

Las huellas dactilares siguen siendo un estándar robusto para la verificación de identidad, pero en 2026, la tendencia apunta hacia la biometría de comportamiento. Esto incluye el análisis de patrones de escritura, ritmo de tecleo y movimientos del teléfono móvil. Estos datos biométricos son difíciles de falsificar y ofrecen una capa adicional de seguridad contra deepfakes y fraudes digitales.

Por ejemplo, en plataformas bancarias, la combinación de reconocimiento facial y biometría de comportamiento en tiempo real ayuda a detectar intentos de suplantación o manipulación digital, permitiendo bloquear transacciones sospechosas inmediatamente.

Una tendencia emergente en 2026 es el uso de blockchain para verificar la autenticidad del contenido audiovisual. La tecnología permite crear registros inmutables que certifican la fuente y la integridad de videos y audios. Cuando un contenido se verifica mediante blockchain, cualquier alteración o manipulación puede ser detectada rápidamente, facilitando la identificación de deepfakes.

Además, sistemas forenses basados en IA analizan metadatos y características técnicas para detectar indicios de manipulación, ofreciendo una capa adicional de protección. Estas soluciones se integran con la biometría para ofrecer una defensa más completa contra fraudes digitales.

Los sistemas de inteligencia artificial continúan perfeccionando sus capacidades de detección. En 2026, la mayoría de las soluciones utilizan modelos de aprendizaje profundo que analizan millones de parámetros en videos y audios para identificar patrones anómalos. Estas tecnologías no solo detectan deepfakes con alta precisión, sino que también se actualizan automáticamente para responder a nuevas técnicas de manipulación.

Las plataformas que emplean IA avanzada ofrecen informes detallados y alertas en tiempo real, permitiendo a las organizaciones reaccionar rápidamente ante amenazas emergentes.

Para aprovechar al máximo las tecnologías biométricas, las organizaciones deben capacitar a su personal en la identificación de deepfakes y en la utilización de sistemas de detección. La integración de sensores biométricos en procesos críticos, como autenticación de usuarios y transacciones financieras, refuerza la seguridad.

Es recomendable adoptar soluciones que combinen reconocimiento facial, biometría de comportamiento y análisis forense, asegurando una protección robusta contra fraudes digitales. La implementación de plataformas que ofrecen una eficacia superior al 92% en detección es un paso fundamental.

El combate contra los deepfakes requiere colaboración entre empresas tecnológicas, gobiernos y organismos internacionales para establecer estándares y regulaciones. Mantenerse actualizado con las últimas innovaciones en IA y biometría es clave para anticipar nuevas amenazas y fortalecer la defensa.

Participar en seminarios, seguir publicaciones especializadas y colaborar en proyectos de investigación son acciones concretas que ayudan a mantener la protección al día.

Las tendencias emergentes en protección biométrica muestran un panorama prometedor para combatir los deepfakes y fraudes digitales en 2026. La integración de tecnologías avanzadas, como reconocimiento facial, biometría de comportamiento y blockchain, permite a las organizaciones detectar y prevenir ataques con mayor precisión y rapidez.

En un entorno donde las amenazas digitales evolucionan rápidamente, la inversión en soluciones biométricas robustas y en la capacitación del personal se vuelve esencial para mantener la integridad de la identidad digital y garantizar la ciberseguridad deepfake.

La sinergia entre inteligencia artificial y biometría será clave para crear un ecosistema digital más seguro, confiable y resistente frente a las innovadoras técnicas de manipulación audiovisual y fraude digital que caracterizan a 2026.

Predicciones para el futuro de la seguridad deepfake: amenazas y soluciones en los próximos años

La evolución de las amenazas deepfake en el panorama digital

En los últimos años, los deepfakes han pasado de ser una curiosidad tecnológica a una herramienta peligrosa y sofisticada utilizada en ataques cibernéticos, campañas de desinformación y fraudes financieros. Para 2026, se estima que más del 80% de los vídeos falsificados en plataformas sociales están relacionados con deepfakes, lo que demuestra la magnitud del problema. La creciente capacidad de la inteligencia artificial para crear contenidos altamente convincentes ha multiplicado la sofisticación de estos engaños, haciendo que los métodos tradicionales de detección sean cada vez menos efectivos.

Las pérdidas económicas derivadas de fraudes impulsados por deepfakes superaron los 9.500 millones de dólares en 2025, incrementándose un 120% respecto al año anterior. Además, las campañas de desinformación política y las estafas financieras, como las llamadas "phishing audiovisual", han puesto en jaque a empresas, gobiernos y usuarios individuales. La facilidad con la que un deepfake puede suplantar la identidad de una figura pública o un ejecutivo de una organización hace que la protección sea una prioridad urgente para la ciberseguridad del futuro.

Nuevas tecnologías de detección y regulación en 2026

Avances en detección deepfake

El desarrollo de sistemas de inteligencia artificial especializados en detectar contenido falsificado ha sido uno de los avances más destacados en los últimos años. Actualmente, las soluciones más efectivas logran identificar deepfakes con una precisión superior al 92%, analizando detalles sutiles como inconsistencias en movimientos, errores de sincronización en la boca, cambios en la iluminación o patrones de pixelado anómalos. Estas tecnologías se integran en plataformas sociales, sistemas de autenticación y redes corporativas, formando una primera línea de defensa contra los ataques.

Además, las tecnologías anti-deepfake se están fusionando con blockchain para verificar la autenticidad del contenido audiovisual. La cadena de bloques permite registrar y validar la fuente original de un video o audio, dificultando la manipulación posterior. La incorporación de marcas de agua digitales, firmas criptográficas y metadatos verificables se ha convertido en una práctica estándar para certificar la integridad del contenido digital.

Regulación y cooperación internacional

El aspecto legal y regulatorio también ha avanzado. En 2026, varios países han implementado leyes específicas que penalizan la creación y distribución maliciosa de deepfakes, especialmente aquellos utilizados para difamar, extorsionar o realizar fraudes. La colaboración internacional es fundamental, ya que los deepfakes pueden difundirse rápidamente a través de plataformas globales. Se están estableciendo convenios y estándares internacionales para promover la transparencia digital y facilitar la persecución de los responsables.

La regulación también busca promover la responsabilidad de las plataformas sociales en la identificación y eliminación de contenido manipulado. La inteligencia artificial, en conjunto con los sistemas de detección, facilitará la moderación y la protección del usuario en tiempo real.

Desafíos y riesgos persistentes en la lucha contra los deepfakes

Aunque las tecnologías avanzadas están mejorando la capacidad de detección, los deepfakes también evolucionan rápidamente. Los creadores de contenido falsificado están perfeccionando sus técnicas, logrando imágenes y audios que parecen indistinguibles de la realidad para la mayoría de los sistemas de detección actuales. La batalla entre creadores de deepfakes y defensores de la seguridad digital se asemeja a una carrera armamentística, con avances en una parte impulsando mejoras en la otra.

Un desafío importante es el equilibrio entre seguridad y privacidad. Las tecnologías de detección, que a menudo requieren análisis profundo de datos biométricos y contenido personal, pueden generar preocupaciones sobre la invasión de la privacidad y el uso indebido de información sensible. Además, los falsos positivos —donde contenido legítimo es marcado como falso— pueden afectar la confianza en los sistemas de protección y generar problemas legales o reputacionales.

Otra dificultad radica en la falta de regulación clara y en el uso de deepfakes en campañas de desinformación a escala global. La rápida difusión de contenido manipulado puede influir en procesos electorales, generar pánico social o dañar la reputación de figuras públicas, incluso antes de que las soluciones puedan ser implementadas efectivamente.

Medidas prácticas y recomendaciones para protegerse frente a los deepfakes

Protegerse contra deepfakes requiere un enfoque multifacético. La implementación de tecnologías de detección avanzadas, combinadas con buenas prácticas de seguridad digital, puede reducir significativamente los riesgos. Es recomendable que las organizaciones integren sistemas que analicen en tiempo real la coherencia y la autenticidad del contenido audiovisual, además de mantener actualizadas las soluciones con los últimos avances en inteligencia artificial.

Asimismo, la verificación de la fuente del contenido, el uso de autenticación biométrica robusta y la aplicación de marcas de agua digitales en el contenido audiovisual son pasos efectivos para fortalecer la protección. La capacitación del personal en la identificación de deepfakes y en la correcta gestión de la información digital también es fundamental. La colaboración con expertos en ciberseguridad y la participación en redes de intercambio de inteligencia sobre amenazas emergentes permiten anticiparse y responder rápidamente a nuevas formas de ataque.

Por último, mantenerse informado sobre las tendencias y avances en tecnologías anti-deepfake y participar en programas de concientización ayudará a las organizaciones y usuarios a entender mejor las amenazas y a adoptar medidas proactivas para salvaguardar su integridad digital.

El camino hacia una protección efectiva y responsable

El futuro de la seguridad deepfake en 2026 y más allá se basa en la combinación de tecnología avanzada, regulación efectiva y la cooperación internacional. La lucha contra estas amenazas digitales requiere no solo soluciones técnicas, sino también un compromiso ético y legal para prevenir el uso malicioso de la inteligencia artificial. La incorporación de sistemas automáticos de detección, junto con la educación digital y la regulación, será clave para construir un entorno digital más seguro y confiable.

En última instancia, la evolución de las amenazas y las soluciones en el campo de la seguridad deepfake refleja la dinámica constante entre innovación tecnológica y ciberseguridad. La capacidad de adaptarse rápidamente y de implementar medidas de protección robustas será la diferencia entre ser víctima o estar preparado para afrontar los desafíos del futuro digital.

El compromiso de empresas, gobiernos y usuarios en adoptar estas medidas asegurará una mayor resiliencia frente a los deepfakes, minimizando su impacto y fortaleciendo la confianza en el entorno digital.

Cómo las plataformas sociales y empresas están enfrentando la desinformación digital generada por deepfakes

La magnitud de la amenaza de los deepfakes en 2026

Los deepfakes han evolucionado de ser una curiosidad tecnológica a una amenaza real y tangible en la seguridad digital. En 2026, más del 80% de los videos falsificados distribuidos en plataformas sociales están relacionados con deepfakes, principalmente en contextos de fraudes financieros, campañas de desinformación política y ataques cibernéticos. Las pérdidas económicas por fraudes impulsados por deepfakes superaron los 9.500 millones de dólares en 2025, con un aumento del 120% respecto al año anterior, lo que evidencia la gravedad del problema.

El riesgo no solo radica en el daño económico, sino también en la erosión de la confianza pública, la manipulación de la opinión y la desestabilización social. Los deepfakes, que son contenidos audiovisuales generados mediante inteligencia artificial para parecer reales, se convierten en armas de doble filo que requieren una respuesta rápida y efectiva por parte de las plataformas y las empresas.

Las estrategias tecnológicas para detectar y eliminar deepfakes

Innovaciones en inteligencia artificial y aprendizaje automático

La detección de deepfakes se ha convertido en un campo en rápida expansión, impulsado por el desarrollo de tecnologías de inteligencia artificial (IA) con una eficacia superior al 92%. Sistemas avanzados analizan detalles sutiles en videos y audios, como inconsistencias en movimientos, errores en la sincronización labial o anomalías en la iluminación.

Por ejemplo, plataformas como YouTube y Facebook han implementado algoritmos que identifican patrones típicos de deepfakes, permitiendo que el contenido sospechoso sea marcado para revisión manual o eliminado automáticamente. La incorporación de redes neuronales convolucionales y modelos de aprendizaje profundo permite a estos sistemas aprender continuamente, adaptándose a las nuevas técnicas de creación de deepfakes.

Verificación de contenido y autenticación biométrica

Otra línea de defensa importante es la verificación de identidad basada en biometría. Tecnologías como la verificación facial y la huella dactilar se han integrado en plataformas sociales para validar la autenticidad de los videos y audios. Estas soluciones protegen contra ataques de suplantación y ayudan a distinguir contenido genuino de manipulaciones.

Empresas como Microsoft y Google han desarrollado sistemas de autenticación que combinan la biometría con blockchain para verificar la procedencia del contenido audiovisual, creando un registro inmutable que confirma su origen y autenticidad.

Marcas de agua digitales y metadatos verificables

Otra estrategia en auge es el uso de marcas de agua digitales y metadatos que certifican la integridad del contenido en tiempo real. Cuando un video o audio es publicado, se le aplica una firma digital que puede ser verificada posteriormente para asegurar que no ha sido alterado. Esto es especialmente útil en campañas de información pública y en medios de comunicación, donde la transparencia y la trazabilidad son críticas.

El papel de las plataformas sociales en la lucha contra los deepfakes

Políticas y regulación interna

Las plataformas como Facebook, Twitter y YouTube han establecido políticas estrictas para eliminar contenido manipulado y desinformativo. En 2026, estas políticas incluyen la eliminación automática de deepfakes que puedan causar daño, además de la advertencia o bloqueo de contenido potencialmente engañoso.

Twitter, por ejemplo, ha implementado etiquetas de advertencia en videos que contienen manipulación digital y ha desarrollado un sistema de reporte rápido para que los usuarios puedan alertar sobre contenido sospechoso. Además, estas plataformas colaboran con verificadores de hechos independientes y organizaciones de ciberseguridad para mejorar la detección y moderación.

Colaboración con expertos y organizaciones internacionales

La cooperación internacional juega un papel clave en la lucha contra los deepfakes. En 2026, se han establecido alianzas entre plataformas, gobiernos y organizaciones de seguridad digital para compartir información, buenas prácticas y recursos tecnológicos. La creación de estándares globales ayuda a unificar el combate contra la desinformación digital y a establecer protocolos de respuesta rápida.

Estas alianzas también han dado lugar a centros de respuesta especializados que monitorean en tiempo real el flujo de contenido falso y coordinan acciones para su eliminación efectiva.

La importancia de la alfabetización digital y la participación ciudadana

Más allá de las tecnologías y políticas, la educación en alfabetización digital es fundamental. Los usuarios deben aprender a identificar deepfakes y comprender las técnicas de manipulación audiovisual. La capacitación en la detección de señales claras, como movimientos poco naturales o inconsistencias en la fuente del contenido, ayuda a reducir la propagación de desinformación.

Las plataformas sociales están promoviendo campañas de sensibilización y recursos educativos para que los usuarios puedan detectar contenido falso y reportarlo de manera efectiva. La participación activa de la comunidad contribuye a crear un entorno digital más seguro y confiable.

Prácticas recomendadas para organizaciones y usuarios

  • Implementar sistemas de detección automática: Utilizar plataformas que integren tecnologías de IA con alta precisión para identificar deepfakes en tiempo real.
  • Verificación de contenido: Confirmar la fuente y autenticidad del contenido audiovisual, especialmente antes de compartir o tomar decisiones basadas en él.
  • Capacitación del personal: Formar a empleados y usuarios en la identificación de deepfakes y en las mejores prácticas de seguridad digital.
  • Utilizar autenticación biométrica y marcas de agua: Implementar métodos que aseguren la integridad del contenido y dificulten su manipulación.
  • Colaborar con expertos en ciberseguridad: Participar en redes y alianzas que fortalezcan la capacidad de respuesta ante amenazas digitales.

El futuro de la lucha contra los deepfakes en 2026

El avance de la tecnología anti-deepfake continúa a un ritmo acelerado. La integración de blockchain para la verificación de contenido, el uso de inteligencia artificial para mejorar los sistemas de detección y la regulación internacional son algunos de los pasos que se están tomando para reducir el impacto de los deepfakes.

Además, las plataformas sociales están invirtiendo en sistemas de autenticación más robustos y en la colaboración global para crear un ecosistema digital más seguro y transparente. Sin embargo, la lucha constante contra la innovación en las técnicas de manipulación requiere una vigilancia permanente y una actualización constante de las herramientas de protección.

Conclusión

El combate contra la desinformación generada por deepfakes en 2026 requiere una estrategia multidimensional: tecnología avanzada, políticas firmes y participación activa de los usuarios. Las plataformas sociales y las empresas están adoptando medidas innovadoras y colaborativas para detectar, eliminar y prevenir la propagación de contenidos falsificados. La clave está en mantenerse un paso adelante en la carrera contra las amenazas digitales, protegiendo la integridad de la información y fortaleciendo la ciberseguridad deepfake en todos los ámbitos.

El impacto de los deepfakes en las campañas de desinformación política y cómo proteger la integridad electoral

Los deepfakes como arma en las campañas de desinformación política

En 2026, los deepfakes se han consolidado como una de las principales amenazas en el ámbito de la desinformación digital. Estos videos y audios manipulados mediante inteligencia artificial pueden parecer extremadamente reales, pero en realidad contienen contenido falso diseñado para engañar a la opinión pública. La capacidad de crear reproducciones convincentes de figuras públicas, políticos o incluso ciudadanos comunes ha aumentado exponencialmente, y su uso en campañas políticas no es una excepción.

Las campañas de desinformación utilizan deepfakes para difundir mensajes falsos, desacreditar a adversarios o manipular eventos políticos. Por ejemplo, en algunos países, se han difundido videos falsos de líderes políticos haciendo declaraciones controvertidas o incluso promoviendo acciones que nunca ocurrieron. Según datos recientes, más del 80% de los videos falsificados distribuidos en plataformas sociales en 2025 estaban relacionados con campañas de desinformación política, evidenciando la magnitud del problema.

Estos contenidos manipulados pueden influir en la percepción pública, generar caos y disminuir la confianza en las instituciones democráticas. La rapidez con la que se propagan en redes sociales, junto con la dificultad para distinguir entre realidad y ficción, hace que los deepfakes sean una herramienta poderosa para quienes buscan manipular las elecciones y socavar la legitimidad de los procesos democráticos.

¿Cómo afectan los deepfakes a la confianza en los procesos electorales?

Distorsión de la verdad y pérdida de credibilidad

La principal preocupación es que los deepfakes puedan distorsionar la verdad y erosionar la confianza en los candidatos, instituciones y resultados electorales. Cuando un video falso de un candidato diciendo algo comprometedor o controvertido se vuelve viral, puede influir en la opinión de los votantes antes incluso de que exista una oportunidad para verificar su autenticidad.

La desinformación generada por deepfakes puede crear un efecto de bola de nieve, donde la duda y la sospecha se extienden rápidamente, afectando la percepción pública y debilitando la legitimidad del proceso democrático. La percepción de manipulación y la duda sobre la veracidad de la información puede disminuir la participación electoral y aumentar la polarización social.

Impacto en la reputación y en la estabilidad política

Además, los deepfakes pueden dañar irreparablemente la reputación de candidatos o partidos políticos, incluso si después se demuestra que la información era falsa. La velocidad con la que estos contenidos se difunden y la dificultad para desmentirlos en tiempo real amplifican su impacto. La estabilidad política también puede verse amenazada si los deepfakes fomentan conflictos, protestas o desconfianza generalizada en las instituciones electorales.

Estrategias para proteger la integridad electoral frente a los deepfakes

Implementación de tecnologías avanzadas de detección

Una de las medidas más efectivas para contrarrestar la amenaza de los deepfakes es la adopción de tecnologías de detección basadas en inteligencia artificial. En 2026, los sistemas de detección deepfake han alcanzado una eficacia superior al 92%, permitiendo identificar contenido manipulado con alta precisión.

Las instituciones electorales y plataformas digitales están integrando herramientas que analizan inconsistencias en movimientos, errores en la sincronización de labios o anomalías en la calidad del video y audio. Además, muchas organizaciones están combinando estas soluciones con análisis forenses y verificaciones manuales para reforzar la seguridad.

Verificación de contenido y transparencia digital

Otra estrategia clave es promover la verificación de contenido por parte de los propios usuarios. Fomentar la alfabetización mediática y enseñar a la ciudadanía a identificar señales de contenido falso ayuda a reducir la propagación de deepfakes. Además, el uso de marcas de agua digitales y firmas criptográficas en contenido audiovisual puede facilitar la autenticidad y la trazabilidad del material.

Las plataformas sociales también están adoptando políticas estrictas para eliminar contenido falsificado y alertar a los usuarios cuando detectan posibles deepfakes. La colaboración entre gobiernos, empresas tecnológicas y organizaciones de verificación es esencial para mantener un entorno digital más seguro.

Regulación y marcos legales

El marco normativo juega un papel fundamental en la protección de la integridad electoral. En 2026, varios países han establecido leyes específicas contra la distribución maliciosa de deepfakes en contextos electorales, imponiendo sanciones severas a quienes manipulan información con fines políticos.

Además, se están promoviendo estándares internacionales para la transparencia y el control de contenido manipulado, con el objetivo de crear un entorno legal que facilite la persecución de delitos relacionados con los deepfakes y la protección de los derechos de los ciudadanos.

El papel de la educación y la conciencia social

Más allá de las tecnologías y regulaciones, la educación es una herramienta esencial para fortalecer la resistencia frente a los deepfakes. Capacitar a la ciudadanía en habilidades de alfabetización digital y en la identificación de contenido sospechoso ayuda a reducir la efectividad de las campañas de desinformación.

Campañas de sensibilización, talleres y recursos educativos sobre cómo detectar videos falsificados y la importancia de verificar las fuentes contribuyen a crear una cultura digital más crítica y resistente. La confianza en la información verificada es la mejor defensa contra la manipulación.

Conclusión

El panorama de la seguridad deepfake en 2026 revela un escenario en el que estas tecnologías representan un desafío real para la integridad de los procesos electorales. Sin embargo, con la implementación de sistemas de detección avanzados, regulaciones robustas, educación ciudadana y colaboración internacional, es posible mitigar su impacto y fortalecer la confianza en las instituciones democráticas.

Proteger la integridad electoral requiere un enfoque integral que combine tecnología, políticas y conciencia social. Solo así podremos garantizar que la democracia no sea vulnerable a la manipulación digital y que las elecciones reflejen la voluntad genuina de la ciudadanía.

Herramientas forenses y técnicas de verificación audiovisual para detectar videos y audios falsificados

Introducción a la detección forense de deepfakes

La proliferación de deepfakes y contenidos audiovisual falsificados en 2026 ha transformado radicalmente el panorama de la ciberseguridad. La capacidad de generar videos y audios hiperrealistas con inteligencia artificial ha abierto nuevas puertas para fraudes, campañas de desinformación, ataques cibernéticos y manipulación de la opinión pública. Para contrarrestar esta amenaza, los expertos en ciberseguridad se apoyan en herramientas forenses y técnicas avanzadas de verificación audiovisual, que permiten detectar con precisión si un contenido ha sido manipulado.

Según las estadísticas recientes, más del 80% de los vídeos distribuidos en plataformas sociales en 2025 estaban relacionados con deepfakes, y las pérdidas económicas por fraudes y campañas maliciosas superaron los 9.500 millones de dólares en ese mismo año. La detección efectiva de contenido falsificado se ha convertido en una prioridad para empresas, gobiernos y organizaciones que buscan proteger su integridad digital.

Metodologías forenses en la detección de deepfakes

Análisis de inconsistencias en movimiento y sincronización

Una de las principales técnicas forenses consiste en examinar las inconsistencias en los movimientos faciales y corporales. Los deepfakes, aunque cada vez más sofisticados, todavía presentan errores sutiles en la sincronización de labios, gestos y expresiones faciales. Los expertos utilizan software de análisis para detectar estas anomalías, que suelen ser imperceptibles para el ojo humano.

Por ejemplo, herramientas como DeepFaceLab y FaceForensics analizan la coherencia entre los movimientos de la boca y el audio, identificando discrepancias que indican manipulación. Además, los algoritmos pueden detectar errores en la iluminación y sombras, que en un video auténtico suelen ser coherentes en toda la escena.

Verificación de metadatos y rastreo digital

Otra técnica clave es la revisión exhaustiva de los metadatos del archivo audiovisual. Los expertos verifican la historia de producción, cambios en la edición, y la trazabilidad digital del contenido. La manipulación de archivos suele dejar huellas digitales, como alteraciones en los metadatos o inconsistencias en el código del archivo.

Herramientas como Amped Authenticate permiten detectar manipulaciones en los metadatos y verificar si el contenido ha sido alterado después de su creación. Esto es especialmente útil en casos donde la manipulación ha sido sutil, pero deja rastro en la estructura del archivo.

Detección de errores en la reproducción y errores en la sincronización

Los deepfakes también pueden mostrar errores en la reproducción, como errores en la textura de la piel, parpadeo anómalo o movimientos musculares poco naturales. Los sistemas forenses analizan estos detalles microscópicos para identificar posibles falsificaciones.

Además, técnicas como la detección de errores de sincronización de audio y video ayudan a identificar si el contenido ha sido manipulado. La sincronización labial, por ejemplo, es una de las áreas donde se detectan fácilmente discrepancias en deepfakes generados con IA imperfecta.

Tecnologías modernas y herramientas tecnológicas para verificar contenido audiovisual

Modelos de inteligencia artificial para detección de deepfakes

El avance en inteligencia artificial ha permitido desarrollar modelos especializados en la detección de deepfakes con una precisión superior al 92%. Estos sistemas analizan patrones sutiles en la textura de la piel, microexpresiones, movimientos oculares y sincronización labial, que son difíciles de replicar en contenidos falsificados.

Un ejemplo destacado es Microsoft Video Authenticator, una herramienta que puede analizar un video y determinar la probabilidad de que sea manipulado. Además, plataformas como Reality Defender utilizan aprendizaje profundo para identificar contenido falsificado en tiempo real, apoyándose en bases de datos de deepfakes conocidos y patrones de manipulación.

Blockchain y marcas de agua digitales

La tecnología blockchain ha emergido como una solución innovadora para verificar la autenticidad del contenido audiovisual. Al registrar cada paso de la creación y edición en una cadena de bloques, se puede comprobar si un video o audio ha sido alterado en cualquier momento posterior.

Las marcas de agua digitales también juegan un papel importante. Estas marcas, integradas en el contenido, permiten verificar rápidamente si un archivo es original o ha sido manipulado. Combinando estas tecnologías con sistemas de inteligencia artificial, las organizaciones pueden asegurar una verificación sólida y rápida de la autenticidad.

Herramientas específicas en el mercado

  • Deepware Scanner: Detecta deepfakes en redes sociales en tiempo real, analizando patrones y anomalías en videos.
  • Amber Video: Plataforma que combina análisis forense con blockchain para verificar videos y audios, identificando manipulaciones con alta precisión.
  • Serelay: Utiliza marcas de agua en vivo y análisis de metadatos para certificar la autenticidad del contenido audiovisual.
  • Truepic: Ofrece soluciones de verificación en tiempo real para contenido generado desde dispositivos móviles, asegurando la integridad del contenido desde su origen.

Prácticas recomendadas para una protección efectiva

Para maximizar la seguridad y reducir riesgos, las organizaciones deben implementar un enfoque integral que combine varias técnicas y herramientas. Aquí algunos consejos prácticos:

  • Integrar sistemas de detección automática: Utilizar soluciones basadas en IA con alta tasa de precisión para análisis en tiempo real.
  • Verificación de metadatos y rastreo digital: Revisar siempre los metadatos y utilizar blockchain para certificar la autenticidad del contenido.
  • Capacitación del personal: Entrenar a los empleados en la identificación de señales de deepfakes y en el uso de herramientas forenses.
  • Implementar marcas de agua digitales: Añadir marcas de agua o firmas digitales en los contenidos audiovisuales críticos.
  • Actualizar tecnologías constantemente: Mantenerse al día con los últimos desarrollos en detección y verificación para hacer frente a las nuevas formas de manipulación.

Conclusión

El combate contra los deepfakes y contenidos falsificados en 2026 requiere una combinación de metodologías forenses y tecnologías avanzadas. La detección de inconsistencias, la verificación digital y el uso de inteligencia artificial con alta precisión son herramientas imprescindibles para proteger la integridad de la información audiovisual. La adopción de soluciones integradas, que incluyan blockchain, marcas de agua y análisis forense, permite a las organizaciones mantenerse un paso adelante en la lucha contra las amenazas digitales. La seguridad deepfake, por tanto, no es solo una cuestión técnica, sino una necesidad estratégica en la protección de la reputación, la economía y la democracia en la era digital.

Seguridad Deepfake: Cómo la IA Protege contra Videos y Audios Falsos

Seguridad Deepfake: Cómo la IA Protege contra Videos y Audios Falsos

Descubre cómo la inteligencia artificial avanzada está transformando la seguridad deepfake, detectando videos y audios falsificados con una eficacia superior al 92%. Aprende sobre las amenazas digitales, fraudes deepfake y las tecnologías de verificación que protegen a las organizaciones en 2026.

Preguntas Frecuentes

La seguridad deepfake se refiere a las tecnologías y prácticas diseñadas para detectar y prevenir el uso malicioso de videos y audios falsificados generados por inteligencia artificial. En 2026, los deepfakes representan una amenaza significativa para la ciberseguridad, ya que pueden ser utilizados para fraudes, campañas de desinformación y ataques cibernéticos. La implementación de sistemas avanzados de detección, con una eficacia superior al 92%, es esencial para proteger a empresas, gobiernos y usuarios individuales contra estas amenazas digitales, minimizando riesgos económicos y reputacionales.

Para implementar tecnologías de detección de deepfakes, primero debes evaluar soluciones basadas en inteligencia artificial que analicen características sutiles en videos y audios, como inconsistencias en movimientos o errores en la sincronización de labios. Es recomendable integrar estas herramientas con tus sistemas de autenticación y vigilancia digital. Además, capacitar al personal en la identificación de deepfakes y mantener actualizadas las soluciones con los últimos avances tecnológicos garantizará una protección efectiva. La adopción de plataformas que ofrecen detección con más del 92% de precisión es fundamental para una defensa robusta.

Las tecnologías anti-deepfake ofrecen múltiples beneficios, como la protección contra fraudes financieros, campañas de desinformación y ataques cibernéticos. Permiten detectar contenido falsificado con alta precisión, reduciendo riesgos económicos y reputacionales. Además, fortalecen los sistemas de verificación de identidad y autenticación biométrica, mejorando la confianza en plataformas digitales. La implementación de estas tecnologías también ayuda a cumplir con regulaciones de seguridad y privacidad, y previene la propagación de información falsa, protegiendo tanto a organizaciones como a usuarios individuales.

Uno de los principales riesgos es la rápida evolución de las tecnologías deepfake, que dificultan su detección y requieren soluciones constantemente actualizadas. Además, existe el desafío de equilibrar la seguridad con la privacidad, ya que algunas tecnologías de detección pueden requerir análisis invasivos de datos biométricos. La alta sofisticación de algunos deepfakes también puede generar falsos positivos, afectando la confianza en los sistemas de verificación. Finalmente, la falta de regulación clara y la rápida expansión de contenido falsificado complican la lucha contra estas amenazas digitales.

Es recomendable implementar sistemas de detección de deepfakes con inteligencia artificial avanzada, mantener actualizadas las tecnologías y capacitar al personal en la identificación de contenido falsificado. Además, verificar la fuente de videos y audios, usar autenticación biométrica robusta y emplear marcas de agua digitales en contenido audiovisual son buenas prácticas. La colaboración con expertos en ciberseguridad y mantenerse informado sobre las últimas tendencias en tecnologías anti-deepfake también son clave para fortalecer la protección contra estas amenazas.

Las tecnologías anti-deepfake están específicamente diseñadas para detectar contenido falsificado generado por IA, enfocándose en analizar detalles sutiles en videos y audios. En contraste, otras soluciones de seguridad digital, como firewalls o antivirus, protegen contra malware o accesos no autorizados, pero no detectan contenido manipulado. La integración de sistemas anti-deepfake con estas soluciones tradicionales crea una defensa más completa, especialmente en la protección contra fraudes, desinformación y ataques de ingeniería social que utilizan deepfakes.

En 2026, las tendencias incluyen el uso de inteligencia artificial avanzada con una eficacia superior al 92% en detección, la incorporación de blockchain para verificar la autenticidad del contenido y la integración de sistemas de autenticación biométrica más robustos. Además, se están desarrollando regulaciones internacionales para combatir la distribución de deepfakes maliciosos y promover la transparencia digital. La colaboración entre empresas tecnológicas, gobiernos y organizaciones internacionales está en aumento para crear estándares globales en seguridad deepfake y reducir su impacto en la sociedad.

Para empezar, puedes utilizar plataformas de detección de deepfakes que ofrecen análisis en tiempo real con alta precisión, muchas de ellas basadas en IA. También es recomendable implementar autenticación biométrica y verificar siempre la fuente del contenido audiovisual. Mantenerse actualizado con cursos y seminarios sobre ciberseguridad y deepfake, además de seguir a expertos en la materia, te ayudará a entender mejor las amenazas y soluciones. Herramientas gratuitas y de pago, como detectores de deepfake y sistemas de verificación de contenido, son recursos clave para comenzar a protegerte en el entorno digital.

Prompts Sugeridos

Noticias Relacionadas

Respuestas instantáneasSoporte multi-idiomaConciencia del contexto
Público

Seguridad Deepfake: Cómo la IA Protege contra Videos y Audios Falsos

Descubre cómo la inteligencia artificial avanzada está transformando la seguridad deepfake, detectando videos y audios falsificados con una eficacia superior al 92%. Aprende sobre las amenazas digitales, fraudes deepfake y las tecnologías de verificación que protegen a las organizaciones en 2026.

Seguridad Deepfake: Cómo la IA Protege contra Videos y Audios Falsos
28 vistas

Guía para principiantes en seguridad deepfake: entender las amenazas y cómo protegerse

Este artículo ofrece una introducción completa a las amenazas de los deepfakes, explicando qué son, cómo funcionan y las medidas básicas para protegerse, ideal para quienes comienzan en la ciberseguridad deepfake.

Tecnologías avanzadas de detección de deepfakes: cómo la inteligencia artificial supera el 92% de eficacia

Explora las últimas innovaciones en detección de deepfakes impulsadas por IA, incluyendo sistemas forenses y algoritmos de verificación audiovisual que fortalecen la seguridad digital en 2026.

Comparativa de herramientas anti-deepfake: ¿qué soluciones son las más efectivas en 2026?

Analiza las principales herramientas y plataformas de detección de deepfakes disponibles en el mercado, comparando sus características, ventajas y limitaciones para ayudar a organizaciones a elegir la mejor opción.

Casos de estudio: cómo las empresas están combatiendo los deepfakes y qué podemos aprender

Revisa ejemplos reales de ataques de deepfake y las estrategias que implementaron las organizaciones para detectar, prevenir y responder, ofreciendo lecciones prácticas para la ciberseguridad.

Tendencias emergentes en protección biométrica contra deepfakes y fraudes digitales

Analiza cómo las tecnologías biométricas, como reconocimiento facial y huellas dactilares, están evolucionando para detectar deepfakes y proteger la identidad digital en 2026.

Predicciones para el futuro de la seguridad deepfake: amenazas y soluciones en los próximos años

Explora las tendencias y desafíos futuros en la lucha contra los deepfakes, incluyendo nuevas técnicas de detección, regulación y cómo la inteligencia artificial continuará transformando la ciberseguridad.

Cómo las plataformas sociales y empresas están enfrentando la desinformación digital generada por deepfakes

Este artículo detalla las estrategias y tecnologías que usan plataformas como YouTube, Facebook y Twitter para identificar y eliminar deepfakes, reduciendo su impacto en la desinformación.

El impacto de los deepfakes en las campañas de desinformación política y cómo proteger la integridad electoral

Analiza cómo los deepfakes están siendo utilizados en campañas de desinformación para manipular la opinión pública y qué medidas están tomando las instituciones para garantizar procesos electorales seguros.

Herramientas forenses y técnicas de verificación audiovisual para detectar videos y audios falsificados

Detalla las metodologías forenses y las herramientas tecnológicas que expertos en ciberseguridad utilizan para autenticar contenido audiovisual y detectar deepfakes con precisión.

Prompts Sugeridos

  • Análisis técnico de detección deepfakeEvalúa indicadores técnicos como frecuencia, ritmo y inconsistencias visuales en videos/fotos falsificados con tendencia a 7 días.
  • Predicción de tendencias en ataques deepfakePredice patrones y aumento en ataques deepfake en los próximos 3 meses usando análisis de datos históricos y tendencias actuales.
  • Análisis de indicadores de verificación biométricaEvalúa la eficacia de tecnologías biométricas en detectar deepfakes, con tasas de éxito superiores al 92% en diferentes escenarios digitales.
  • Análisis de amenazas actuales de deepfake en ciberseguridadDetalla las principales amenazas y tipos de fraudes deepfake utilizados en ciberataques recientes, con enfoque en 2026.
  • Análisis de sentimiento y percepción pública sobre deepfakeEvalúa la percepción de los usuarios y la comunidad sobre la protección frente a deepfakes y las tecnologías anti deepfake en 2026.
  • Evaluación de estrategias de protección anti deepfakeCompara las principales estrategias de detección y protección, incluyendo su eficiencia y niveles de adopción en grandes organizaciones.
  • Análisis de oportunidades en detección deepfake avanzadaIdentifica nuevas oportunidades y tecnologías emergentes en detección profunda de videos y audios falsificados en 2026.
  • Análisis de impacto económico de fraudes deepfakeEvalúa el impacto económico y las pérdidas relacionadas con fraudes y ataques deepfake en 2025, con proyecciones futuras.

topics.faq

¿Qué es la seguridad deepfake y por qué es importante en 2026?
La seguridad deepfake se refiere a las tecnologías y prácticas diseñadas para detectar y prevenir el uso malicioso de videos y audios falsificados generados por inteligencia artificial. En 2026, los deepfakes representan una amenaza significativa para la ciberseguridad, ya que pueden ser utilizados para fraudes, campañas de desinformación y ataques cibernéticos. La implementación de sistemas avanzados de detección, con una eficacia superior al 92%, es esencial para proteger a empresas, gobiernos y usuarios individuales contra estas amenazas digitales, minimizando riesgos económicos y reputacionales.
¿Cómo puedo implementar tecnologías de detección de deepfakes en mi organización?
Para implementar tecnologías de detección de deepfakes, primero debes evaluar soluciones basadas en inteligencia artificial que analicen características sutiles en videos y audios, como inconsistencias en movimientos o errores en la sincronización de labios. Es recomendable integrar estas herramientas con tus sistemas de autenticación y vigilancia digital. Además, capacitar al personal en la identificación de deepfakes y mantener actualizadas las soluciones con los últimos avances tecnológicos garantizará una protección efectiva. La adopción de plataformas que ofrecen detección con más del 92% de precisión es fundamental para una defensa robusta.
¿Cuáles son los beneficios de usar tecnologías anti-deepfake en seguridad digital?
Las tecnologías anti-deepfake ofrecen múltiples beneficios, como la protección contra fraudes financieros, campañas de desinformación y ataques cibernéticos. Permiten detectar contenido falsificado con alta precisión, reduciendo riesgos económicos y reputacionales. Además, fortalecen los sistemas de verificación de identidad y autenticación biométrica, mejorando la confianza en plataformas digitales. La implementación de estas tecnologías también ayuda a cumplir con regulaciones de seguridad y privacidad, y previene la propagación de información falsa, protegiendo tanto a organizaciones como a usuarios individuales.
¿Cuáles son los principales riesgos y desafíos al combatir los deepfakes?
Uno de los principales riesgos es la rápida evolución de las tecnologías deepfake, que dificultan su detección y requieren soluciones constantemente actualizadas. Además, existe el desafío de equilibrar la seguridad con la privacidad, ya que algunas tecnologías de detección pueden requerir análisis invasivos de datos biométricos. La alta sofisticación de algunos deepfakes también puede generar falsos positivos, afectando la confianza en los sistemas de verificación. Finalmente, la falta de regulación clara y la rápida expansión de contenido falsificado complican la lucha contra estas amenazas digitales.
¿Qué prácticas recomendadas existen para protegerse contra deepfakes?
Es recomendable implementar sistemas de detección de deepfakes con inteligencia artificial avanzada, mantener actualizadas las tecnologías y capacitar al personal en la identificación de contenido falsificado. Además, verificar la fuente de videos y audios, usar autenticación biométrica robusta y emplear marcas de agua digitales en contenido audiovisual son buenas prácticas. La colaboración con expertos en ciberseguridad y mantenerse informado sobre las últimas tendencias en tecnologías anti-deepfake también son clave para fortalecer la protección contra estas amenazas.
¿Qué diferencias hay entre las tecnologías anti-deepfake y otras soluciones de seguridad digital?
Las tecnologías anti-deepfake están específicamente diseñadas para detectar contenido falsificado generado por IA, enfocándose en analizar detalles sutiles en videos y audios. En contraste, otras soluciones de seguridad digital, como firewalls o antivirus, protegen contra malware o accesos no autorizados, pero no detectan contenido manipulado. La integración de sistemas anti-deepfake con estas soluciones tradicionales crea una defensa más completa, especialmente en la protección contra fraudes, desinformación y ataques de ingeniería social que utilizan deepfakes.
¿Cuáles son las tendencias actuales en la lucha contra los deepfakes en 2026?
En 2026, las tendencias incluyen el uso de inteligencia artificial avanzada con una eficacia superior al 92% en detección, la incorporación de blockchain para verificar la autenticidad del contenido y la integración de sistemas de autenticación biométrica más robustos. Además, se están desarrollando regulaciones internacionales para combatir la distribución de deepfakes maliciosos y promover la transparencia digital. La colaboración entre empresas tecnológicas, gobiernos y organizaciones internacionales está en aumento para crear estándares globales en seguridad deepfake y reducir su impacto en la sociedad.
¿Qué recursos o herramientas básicas puedo usar para comenzar a protegerme contra deepfakes?
Para empezar, puedes utilizar plataformas de detección de deepfakes que ofrecen análisis en tiempo real con alta precisión, muchas de ellas basadas en IA. También es recomendable implementar autenticación biométrica y verificar siempre la fuente del contenido audiovisual. Mantenerse actualizado con cursos y seminarios sobre ciberseguridad y deepfake, además de seguir a expertos en la materia, te ayudará a entender mejor las amenazas y soluciones. Herramientas gratuitas y de pago, como detectores de deepfake y sistemas de verificación de contenido, son recursos clave para comenzar a protegerte en el entorno digital.

Noticias Relacionadas

  • Axis Communications blinda la autenticidad del vídeo ante deepfakes - La Ecuación DigitalLa Ecuación Digital

    <a href="https://news.google.com/rss/articles/CBMilAFBVV95cUxPdktBRnRreFpDTmwxY0dVd0QyczZueEtkUVNUUm85UVIyTTNHbHZpTlpMWC1JSURvWVRkMWhBZExUSEJPbTZ3N2RhVmNvRzEtV1VUZnJPZnJGbXFIeGNmNU1mT1lkSHR6emR5ZnhONVNoYVJNU2JQZUs1TDg2NDNhZkJmTFc0UnVZSTdvMHgtbVJpYXRl?oc=5" target="_blank">Axis Communications blinda la autenticidad del vídeo ante deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">La Ecuación Digital</font>

  • Axis: tecnología de verificación forense para luchar contra los deepfakes - Digital Security MagazineDigital Security Magazine

    <a href="https://news.google.com/rss/articles/CBMiqAFBVV95cUxPY2dkN3loZXhwaE4tUDlrbF85ZHFDMG1VWjZWd0pCQnNpUTJyYTliRkpFaWhUUXVVbVQ4R0F1Y0JHSlRaRFBfWmxGcHdTbHNsRVBmcy1HdzJHYl93M3l1Z2pYdmpNVHFraC1jcngtb0I0Ty1WRHl5ZExtN3BsRmFPQU9pSFNUWEswUExwdS1nMU12cktpTzgyVGdOemw1ZzdqQXhITzZXbkk?oc=5" target="_blank">Axis: tecnología de verificación forense para luchar contra los deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">Digital Security Magazine</font>

  • Riesgos de la IA Generativa y deepfakes: guía de seguridad - Diario OccidenteDiario Occidente

    <a href="https://news.google.com/rss/articles/CBMiiwFBVV95cUxQVWVvV1pNRVFpS3ZiRTd3dlpsSG00SXUwWXVMS1NXTmdUczBWdEJvSjhoVmJKTmtsVDNEYVJSNkZDMWdVa0pQcXhfbGxqRUpXUWxhWTE5cGtNMW5Ob1lCalVhRlpWUDJrMGwtSjM4MVU5TGp4d3B0Q1FpbTJSUl9uVllJRFlTRUlYbW9R0gGWAUFVX3lxTE1TaGQ0NWtrUEVjdk01bWRRUVZFZ2dBaDdFOWRfOW9aZEdZU2hieWdOOWt4dTEwQ2dBYzdkS3NXd01fb3JSbzFpYmdsV3dYdGQ0YmtTZW1feXA4bTZiQ242UXJZRkJOYlhKYVNZZWFfbEx5U09aNThXWjBKa1VkdWpGUFhYZ1BtdzVIVUQwcTBUWmhHaXgwdw?oc=5" target="_blank">Riesgos de la IA Generativa y deepfakes: guía de seguridad</a>&nbsp;&nbsp;<font color="#6f6f6f">Diario Occidente</font>

  • ¿Cómo saber si una videollamada es real o un deepfake? - LV12LV12

    <a href="https://news.google.com/rss/articles/CBMimAFBVV95cUxNRnpMcEttVjhCbVVWa19vVllfQjlVOXhBQnUyVlVJdE1MWlFpNWJGVHBjZ1EzNUdTUWVnTEtkZkdsYmRFQXh0YklsN01zN3J6UlJrNWNuZFJmR3c2akRQMDFpTFJYd1ZVRk9leU1IaG9mRnJVY295TUVkVXRQc3kxRFFZMkNoUzVoVW1yWm11RjNwU3lKNHhQVdIBmAFBVV95cUxNRnpMcEttVjhCbVVWa19vVllfQjlVOXhBQnUyVlVJdE1MWlFpNWJGVHBjZ1EzNUdTUWVnTEtkZkdsYmRFQXh0YklsN01zN3J6UlJrNWNuZFJmR3c2akRQMDFpTFJYd1ZVRk9leU1IaG9mRnJVY295TUVkVXRQc3kxRFFZMkNoUzVoVW1yWm11RjNwU3lKNHhQVQ?oc=5" target="_blank">¿Cómo saber si una videollamada es real o un deepfake?</a>&nbsp;&nbsp;<font color="#6f6f6f">LV12</font>

  • Avast amplía Guardián de Estafas a nivel mundial y lanza Protector contra Deepfakes - TechnocioTechnocio

    <a href="https://news.google.com/rss/articles/CBMirwFBVV95cUxQWC1MVS1mV0xpUXVFZUpCUU9FVmUwUmJTSC1QSUdnR2NwUGVGSXU5UnpiNmhOalBBQmo2eXR5OTRFOWs5cWI2V25jeE8zTFpsb2lZcUxURVVrTUpyZUIyR19nSFRuOHJjRGsyRmR3UFB5Y0Zpc05wVTdVcmhxR0w4TTNuczYwQ28yU2tnTGdQYUdhWWlZZTVHd2xSVzRwdHlzaElFaE9XSUNlOGE4WVp30gG0AUFVX3lxTE1pNnlBdHF1TzUydUxYV2VSMXdxSmgxYUN1YzNiMFBUVk9CbXlweWtBd2tuSkpfNEV6THF5cVZVZy0tX3BUSVFxbVk3NVViWU8tNHFlcXAweHp4OGFFUy13MDFTSmgyLVBGbE5nNU9uaUlyS05YbkZjQXpZN28zbXk3R3NKR1ozRlhRcEZmWU9aZWxzRUtBZU8td2R2NVhEQlVfc0FneUkxQjUtUmtLalVLOEJxOA?oc=5" target="_blank">Avast amplía Guardián de Estafas a nivel mundial y lanza Protector contra Deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">Technocio</font>

  • Inteligencia artificial y ciberseguridad en 2026 - Panda Security - pandasecurity.compandasecurity.com

    <a href="https://news.google.com/rss/articles/CBMirwFBVV95cUxQTFVVbUVQSmRhUHF2RGtndzVLdkVLSXNKSXpEOWw1Q1NlVGRCRVYzU1B1bTQxdFpaamJycWVNdzZnMGxwaFdSUDF2dVBPbllldEJ4d21JTTlCNXIxWDZVT0R4bEJqZ1ZnNFJCck1ZUVZwTXI0WVJZLTZ5aU1wMnhKMG9MZlBuY3E3M3lfdWlKTmFNWHV5Q2Q5Q055VTVvNGtBOVplNy1sYmx3UFBUX0NZ0gG3AUFVX3lxTFB1dDBuaEFwMHFsdlE1S1JzMUl2VnlsamRjaVVPdmVNMWQ5N3NSQnl0ZnViMU5VM3dqSXJQRm9ZWmlYa2RUcHhFS2ozVUpHdFFsWDB2cklWWGpISEwzSHo2ZjE4UEx6cnFQYVpWQkxiZFV1VjcwaFRCenVCMEFWMUtoanl5a0JIOFdFb2hlMlNOYmVxY2dNZlMzSTVQNm44NlQ1RlhLOTFrMzB4aV9mWHpBZmpJWDZVSQ?oc=5" target="_blank">Inteligencia artificial y ciberseguridad en 2026 - Panda Security</a>&nbsp;&nbsp;<font color="#6f6f6f">pandasecurity.com</font>

  • El comercio online falso, los deepfakes y el malvertising dominan el panorama de amenazas - ituser.esituser.es

    <a href="https://news.google.com/rss/articles/CBMixwFBVV95cUxQT0ZSZjRPX2RNY21EcW9faW9DUmR4ZXhNemVLTW5FU3lTN3ZoSVZwZWxBQmI4c2kwdnJ6ZlVya1BsZnpycENqOW42VjNVS2dJaXJoSGd6cWhPeUV6NGVqUWtDUXNaTzl3bUpPQVFsTGEyazNFRnNPVm1jTkMyN0VLekNweFJnczBiR1owbG1DQUJfclg3d29ScWVkY282QjNVRG5yaVM5ZjRSQ3J3a2I2TEVrYlNjZW5PNUptaGZtekVpR3ZwemJJ?oc=5" target="_blank">El comercio online falso, los deepfakes y el malvertising dominan el panorama de amenazas</a>&nbsp;&nbsp;<font color="#6f6f6f">ituser.es</font>

  • ChatGPT es la herramienta más citada en los incidentes vinculados a la IA - ituser.esituser.es

    <a href="https://news.google.com/rss/articles/CBMiswFBVV95cUxNNVh0VGZ4Z1hBT1J5UGs4NEMzMDZ1UG1QMHZCRTJvU0xmNTRGQ0hUV2ZMckthQ2R3akVaX3d6ekZrQjFjWHpEbno5TXhrZldYRFJjeHVLb05SOWtYd0M3UmZLTmw2NWZOZmEwSUdDOWQyZC1GQjY3WHR5akNjenhpN2Q3czJkT093TTROeVZRQ1VPRlNZYkh1X1BHdjJkZE9MSEVHZGhZcDFfSXY4TVo4U1hRTQ?oc=5" target="_blank">ChatGPT es la herramienta más citada en los incidentes vinculados a la IA</a>&nbsp;&nbsp;<font color="#6f6f6f">ituser.es</font>

  • ¿Puedes detectar un deepfake?: un test revela que la edad influye en la precisión - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMivAFBVV95cUxQQ0M0V0Z3c3NkQXU1ZkxXdkFUN01oZ0kxYWVxOVQ2ckgxbDQ1VFJFOHkzSUpYbGhMR1lXbklueGRUaWxMQXppd0NWbkJOWkJVMFJhQWk4Z281eU0xVXM5REFZNUI0cjRMcHM2a1RsdkxKaUpmN0tuWlMtbjJ0UHNPT2w2bFlWQnh3ZzlKWDhmaGt5WVdiMFprajNmVmtDZjdrVW9RSDJMOHk0cDktOFBlMWUyc012UFd2cVA0QtIB1wFBVV95cUxOSUtKVGQ5OFMxcGtYUjJUd3ZXY1l0SGN6YVhDbnBtcThLQ3VhVGZ3bEZQT1dXMEpyME50cWhVYVNpT0JnNE15Um45ZGJyTE15Vm45VzF0Y1UySU93d3dJZEJzWHNYN0N2aVJWLUI4MUdtZVZIMV9wQVp3RHdjdG9DZERRY2l6SzdYNlBIZ2tFazBGWFI0Unh3aWFMWnlMRW5PQWhVN3JPT1daWHk1N05uOURZQzA0Z0FKNTBBTV9nUG5rVU9kOUQydWVvend2U2c1dDlNNGUtZw?oc=5" target="_blank">¿Puedes detectar un deepfake?: un test revela que la edad influye en la precisión</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • Endesa ofrece autenticación por voz tras su brecha de datos, un método vulnerable a deepfakes - Escudo DigitalEscudo Digital

    <a href="https://news.google.com/rss/articles/CBMijAFBVV95cUxQUzZRSWQ0UGNyY3M2TF96MDhMc29La0dWSng0Q3J3Z2w0S1pNWm9qU0cwTjhBV2ZrUzVpQWlWOVZ2QlpKM21VOVBSTWZHYzNXX0M2T1ZIREVaU0t0ajJmZUZySkxKZmZSQ09yTUdqcUE0OFEzVWZnZHBmdHczd0xYZnc3Ylh0YVQ0MUtrcg?oc=5" target="_blank">Endesa ofrece autenticación por voz tras su brecha de datos, un método vulnerable a deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">Escudo Digital</font>

  • Ciberseguridad 2026: IA ofensiva, «deepfakes» y la batalla por la identidad digital - Bahía CésarBahía César

    <a href="https://news.google.com/rss/articles/CBMitAFBVV95cUxONUZvT3p0eU1COWNRbk85MzNTZi1sam9VdkpJTUhIMWhDSjVjcUZYdWVVanZIdUFnU085SDlCcWpyQzJ1ckVGem9kVEY5WVExQnJ3RE9XM1BBTFBEWDJ5S0xSV215X1p2Mk5peWlCWmltWUFfZkc3dFN1S1dzTjhIWTl4MHctZ3dyVkhRTThZdFZMNFlJc3ZoZG9NT0lXNDBMNHZGMy1UQk4zU0lNazhsaFhFOHQ?oc=5" target="_blank">Ciberseguridad 2026: IA ofensiva, «deepfakes» y la batalla por la identidad digital</a>&nbsp;&nbsp;<font color="#6f6f6f">Bahía César</font>

  • Los reguladores de todo el mundo están investigando a Grok por deepfakes sexuales. - MalwarebytesMalwarebytes

    <a href="https://news.google.com/rss/articles/CBMivgFBVV95cUxOdVFLUThhMXhsd3d3YlNwei1leU1KVlZ5QlQwTEVuU2lfcHUtYTU0dHFMN2UzUnZvOVktSU5qNXIxVzFBZHh4bzBQVzA5TVYtcXJ5YWNoVEo2cWFfRW5ZUkRSd3RSYUVTTGpDSEFrQnpmX0RsbDE3TnRETWtMclo3YnYtN2RqNF8tWHZDeTkxT2x4eEJCaUxCTHhrQWpSNl9Cd3BINGpodFZxMUNQd0hUZ3k0X0Z5SVh0VVl2WGh3?oc=5" target="_blank">Los reguladores de todo el mundo están investigando a Grok por deepfakes sexuales.</a>&nbsp;&nbsp;<font color="#6f6f6f">Malwarebytes</font>

  • Amenazas digitales: Peruanos aún vulnerables al deepfakes y phishing - GestiónGestión

    <a href="https://news.google.com/rss/articles/CBMirwFBVV95cUxOZGoxYzRTM0pwRmZld29EWnRXeF9tNlhYV2lHRHFPeWNuMFVpSzFvNVYtNjI5YnhzS3g4MnFFa3RtRHJLTGk0QXFEWDRnOEZXcWdFVmdZWXVicDlJay1mUXJDQmRNbnRzSWdqX0xBVFNrRjJaTzl2ZWxYXzlZMm91UUc1N05zV241ZmlTXzlWVER4SVJFaHZCNnhvWE9aTW9yLXdIbFA5cnJBRU9RYlVB?oc=5" target="_blank">Amenazas digitales: Peruanos aún vulnerables al deepfakes y phishing</a>&nbsp;&nbsp;<font color="#6f6f6f">Gestión</font>

  • El futuro de la ciberseguridad: IA y deepfakes transformarán el panorama empresarial para 2026 - debate.com.mxdebate.com.mx

    <a href="https://news.google.com/rss/articles/CBMi4wFBVV95cUxNQTBkX3hxOTBEdlBqY21yQWo3MWRPQ0l3LUhzWTZZWnFMa01LNENscWQ0OHNfaTRpd0dqX2xCeEh1NmNxY2s5LS0xRkJhRjdoX25pUUJ1ZFFtZjNWZHZubWhFYzVVdlpDTjA3YnAwejhBQmxrdERxc3BpaUlKOU1ia1VEOXZLR3ktbFROM0FHUndZT1lqTnhKUnJaZkJQdDQ1M2NKZmNmejBFVVBYdVdBOFhiSWpRYUh5WEZoNXREY1ViSk1QTWZ0VHNCT3F4Z0s1ZWg0azBlaEw0VWoxNldMajFRd9IB6AFBVV95cUxPTXliOXJ1dkxLRzBkUjQ2SVF1VTd4ZTRRSUpDaHk4RmZGV3hyV2xNbjVtUVhubHdJY0l2azJSbUxjZ2NhWFVRTEp0Smxnc1p6OWJHWC0wN3YtbmhwOTh6UU5tdVFxaFdleWNNQ3ZMQi1FdHNRNFRTcHlvR2xFSE56aUYwT1lTNUtwZFRvSllUUHNvR0FvMlJfQmxxS0NZNE90bVI2dlltYVR2N1U1TDdiUXMzc083eHVXS1hxal9hbW1qbC1oeEZLYU9GNFBURnkzZV9wNmV5NzZNWEhJZUI1bHJPTkdZV3Rh?oc=5" target="_blank">El futuro de la ciberseguridad: IA y deepfakes transformarán el panorama empresarial para 2026</a>&nbsp;&nbsp;<font color="#6f6f6f">debate.com.mx</font>

  • Top 10 de las palabras de tecnología más usadas este 2025, según Google - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMisgFBVV95cUxPaXpBdmNObkdWc19nTE1NQzNTbFhLSWZqVC1xNU5GWFBFbHVKMEV2ckdxUWFfUWIyc1pOa3BFRVk1TWVGZzFmaEVUYmdVam4xaGRiRFFralRlYnlGVU5vWk85MEVpeTlldGdNLTBrTlB5ZGd3aU52eUtNQWFmbEhwbjdDd21jVTVlcm5ySEEwMUd1cTY3MjhnVlN1RzRJYlBLNXM0bng4MkMzVFVZY2tQUTNn0gHMAUFVX3lxTFBiQUJSNWV6MVMxZ0Zzc2pkYldPZFdxejlHclZHS2ZmQUxRS2FjSTYzazJkQUd3MlMyYXRXN1N6YWJldmhWT0QwdUFnU09FbGZ1akFHZDN2S3EwWGcwV1hhSlBWU28xUEtHdWRUNXpEamYxdEZLOFV6THpOVFdaaXVqMms1NjFVVlcyQkNSVFpXLWx6c1hKWEVOMlJTcWppZDZzMGVkQVUzQ3A5YTNIZGEyNVZWbWJ2ZWJFT3E0WFFnVnJLVzhMQnV1N0kzQw?oc=5" target="_blank">Top 10 de las palabras de tecnología más usadas este 2025, según Google</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • IA Agéntica domina: las 10 tendencias tech que definen 2025 - KCH FMKCH FM

    <a href="https://news.google.com/rss/articles/CBMinwFBVV95cUxPajhFdGxNUmtXY1B5T0Q1N3BNUEE5TElrcUlpRnF2Q0JIRmRVYzVUbWpLaXp4YkRIMURHM291cTZqejZ3MjRENXZMMnM5Q1BTYmZzaGkzMnRfeGVneWhmZGdlcm9Tdzl6cWFOMTV4ZHBjeWx6anZfYVZiUHVvQXVSTFZqTEZTcnVqWGJpc1NlUllMT1hiZXEwVUNfXy1ydTg?oc=5" target="_blank">IA Agéntica domina: las 10 tendencias tech que definen 2025</a>&nbsp;&nbsp;<font color="#6f6f6f">KCH FM</font>

  • Armar la realidad: la evolución de la tecnología deepfake - IBMIBM

    <a href="https://news.google.com/rss/articles/CBMikwFBVV95cUxNMGc5S1MtakhxVFFPQXRsYkt3MnRqa0Ixd1R0MHJ4bFdIU2NfMHpZOXRNYmhSYlJhaUotMzh5TG9kYUJsbWt4NG10UDFkX1h2dVpFNS1nRlE3M1pwMUVnX2I1ZmZyNlVOYUZ0TUN4bE5BNnpSWTl1RHpRZEo4RklTdm9pRzU3dk9SaTJBVkdYVURENk0?oc=5" target="_blank">Armar la realidad: la evolución de la tecnología deepfake</a>&nbsp;&nbsp;<font color="#6f6f6f">IBM</font>

  • Convertir la realidad en un arma: la evolución de la tecnología deepfake - IBMIBM

    <a href="https://news.google.com/rss/articles/CBMikwFBVV95cUxPSmkzYlpjdUdpYUVraUl6TUotaExPMnYzZ25nWUlxbDFKWW81SmRhdVhNblUwYTMtY1hwQ25BVk1TSzNmRl9fSWtQcU90NVgtQ1lIeGo5RTFaUmFmeHVzekZ2dmFXbDh4QWpVM1dneUFqbG15Q2xRb2RyZFZfUWUtcVRLLUFvSGRYd1diWkRJUTJoV0U?oc=5" target="_blank">Convertir la realidad en un arma: la evolución de la tecnología deepfake</a>&nbsp;&nbsp;<font color="#6f6f6f">IBM</font>

  • Los ídolos de los estafadores: McAfee revela los famosos con más deepfakes del mundo - McAfeeMcAfee

    <a href="https://news.google.com/rss/articles/CBMi0wFBVV95cUxPaWIycy12SlI1aTRyZDh5aEtRZFVYSWNwemlNdi1zQjN0ZndKZUN6cVN5SERZR0ptUUxrUTFSX19VLXF6NjEwTWxwcUNMVFNxVGFqNExCeGhTMUY5YnhYa1hGQlJvQnFSdDRSc2NRX1VBLVlBT2xXRTBIUUo1V1hId0pJdVJCWXZlMkVVVm5ScGxCLTNEM2ZNWHBCbW9EdTZFLXJsRVZkVmNlNUY0VXViOUtYY09qUUFGRVJmODRjWjBJazUtX2M5SVo5NU1SdWpQWE9B?oc=5" target="_blank">Los ídolos de los estafadores: McAfee revela los famosos con más deepfakes del mundo</a>&nbsp;&nbsp;<font color="#6f6f6f">McAfee</font>

  • Expertos alertan del aumento de fraudes basados en IA, más sofisticados y efectivos, con los 'deepfakes' a la cabeza - Ultima HoraUltima Hora

    <a href="https://news.google.com/rss/articles/CBMihAJBVV95cUxPVDhKWXhLRzJGOGZtTlhYUk02aXlkZzgyNVlyMmVDUGxHRmswOGZwdFM2TzhLSHpnLUpKS3BGbGNZNEx2eFZSVEU4dVktM3lBZ2p6c1pxcFVmWGw2WHJzWG9pc2xPM3dIZjltVUxRNzJfTnRNUjhSSGNITTYtaHVtZjdncEVtTUNwTW1UaTNHZ3BDNC1yd0Z3bHJqOHAwZWRWU0Z5RTV1cmo2ZDk2aUxBZEwxb0g1dTZRSDJUUURBR25NUlJTY01rM2RMMG5lMDdDRFlhUjlNY1ZYYmR2Mk1WSHhSRHo3NXlCTl93R3JyV0lSeWxBVkR5eFV5R2g4cEdvUmdyXw?oc=5" target="_blank">Expertos alertan del aumento de fraudes basados en IA, más sofisticados y efectivos, con los 'deepfakes' a la cabeza</a>&nbsp;&nbsp;<font color="#6f6f6f">Ultima Hora</font>

  • Fraudes digitales con IA: deepfakes y bots desafían la ciberseguridad en 2025 - expreso.ecexpreso.ec

    <a href="https://news.google.com/rss/articles/CBMizAFBVV95cUxPN1UyQ2FySFZValRlbDZtb3laQm9TZHl0SFo3Z1kwM1o0LWk4NnlORkp2dlZuZVVTWUYxQlBtRmRIaGNTWGlKWmZTeVlQNDkyYmtoV2pENmJqYjFrN1VMUEQ2Uk8ydDgyenVPdmJMaHlSazcyUVR4WmRTZ1h0X3FQMGEtZkE3LWJDV2M0YjdIT21tb1NJQ1NHanRXbXk5eWZjRGhnTXkyVWhqcjMxY2FMcHdOaDBzTk41RUdKVWhubDZvd0ZSU2tFbHdPakc?oc=5" target="_blank">Fraudes digitales con IA: deepfakes y bots desafían la ciberseguridad en 2025</a>&nbsp;&nbsp;<font color="#6f6f6f">expreso.ec</font>

  • Deepfake bullying » el nuevo acoso digital - Panda Security - pandasecurity.compandasecurity.com

    <a href="https://news.google.com/rss/articles/CBMiqAFBVV95cUxNYUFZWFJkYTA5dzlGUWlFbkd5LXhINVRIUE95aU45bklkWkptT2tFMFM4U1pYUWoyTDFqZWs4VTIzdVVfZEphNWhVTlZXcmtCVkM5M0p1X1hQZ3hpNkFTZ3l1S3VoSDE0eVYxVTZfV2FMSGpJOElQWUJEUzNyREZybHRXQkhCekxCZGs2bzRPVmJMQnVvelZSZGo1WXRBODdKOGYxUVVuckXSAbABQVVfeXFMTXhPMmdXZEJENjhrVHJQYmJXVEVUc3kxajd5UVR2NmtaNTZkaEs2M25CNzczNTMxS3I5SnRiNDVxaExIa0NkVXFhQ0s5NTVxamw5QUFsRF9SajMzaDFZOFFmRVloVDFYU0tyRTZPdjR4VTJ3WUswMlM5ODBEM21KeW5Ub1E1dF9Gdkc3QThMbnZXWUVMTTdTcHZWZkxIenZDOWlpVFUwWUtKcHpaY0lrU1I?oc=5" target="_blank">Deepfake bullying » el nuevo acoso digital - Panda Security</a>&nbsp;&nbsp;<font color="#6f6f6f">pandasecurity.com</font>

  • 7 casos reales de estafas donde se utilizaron deepfakes - WeLiveSecurityWeLiveSecurity

    <a href="https://news.google.com/rss/articles/CBMirAFBVV95cUxNbEttTnBrNXpvSWJCSlVIRlc5ajhqWGFqenJDbTEtbWQ5TjFHZ0F3MzdCR1Bid3IxVFZXZ0JUbHF5eGRKTk9nRHpTdl9NaGhTRnNLMGludk1UUHZJMU5KUEZLTk9sNjAyek5QeFROQUppQWU1eDc0aWhib0IxUmNWTS15T2YxQkJjcmRlVzdCMXQwdzNSMGw4a21iZXBTZnlkTVlHUUYzQTRaQk8y?oc=5" target="_blank">7 casos reales de estafas donde se utilizaron deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">WeLiveSecurity</font>

  • Phishing 3.0: AI y ataques de ingeniería social impulsados ​​por Deepfake - ciberseguridadpyme.esciberseguridadpyme.es

    <a href="https://news.google.com/rss/articles/CBMitwFBVV95cUxNNUZvSEdqMW9lcVVSTThtS0dSMkNtUVl4aXY0dk9mTjR2QXBpWjVuZV9YVGhRMklSMGVKZEtzWWRWd1R5Zm9PQmUyd2J0d0VhWkYwRVZrU0JFaHItYjZ6MmxtUFVpYmtaaldQMlRlblZDRkZmWndMUVhLYTkwSy1zeWViSzdIS3YwRm1TSnlEeU9GV1N3ZWMyaTZLSTJuX2RYT3RsRU0yUURmNTd2U2N5Z3NkaEpnYUHSAbcBQVVfeXFMTTVGb0hHajFvZXFVUk04bUtHUjJDbVFZeGl2NHZPZk40dkFwaVo1bmVfWFRoUTJJUjBlSmRLc1lkVndUeWZvT0JlMndidHdFYVpGMEVWa1NCRWhyLWI2ejJsbVBVaWJrWmpXUDJUZW5WQ0ZGZlp3TFFYS2E5MEstc3llYks3SEt2MEZtU0p5RHlPRldTd2VjMmk2S0kybl9kWE90bEVNMlFEZjU3dlNjeWdzZGhKZ2FB?oc=5" target="_blank">Phishing 3.0: AI y ataques de ingeniería social impulsados ​​por Deepfake</a>&nbsp;&nbsp;<font color="#6f6f6f">ciberseguridadpyme.es</font>

  • La problemática del deepfake y la IA en la seguridad de las comunicaciones - LISA NewsLISA News

    <a href="https://news.google.com/rss/articles/CBMisgFBVV95cUxNTUotWlpZS1o5NkV6TnlqMnNLVllUVTFCZjN5dnNJUm9UaExyLVQwT0ZBWk5BdWlibVk5d0o3Uk5kaWJqQWZGdF9VbjV1N3lXUGdJRkZNX1NOQXhSNWsxRGltdEFFM2tjdXNwbXVodzNHalRxTmthLXZXYVlkSEtxaVVVQjhOUUxXNnNtY0ZmQ280VC16NURLNnBQdTlvOUhWeWoyX1h3Z3RXNkJlcW5EV1dB?oc=5" target="_blank">La problemática del deepfake y la IA en la seguridad de las comunicaciones</a>&nbsp;&nbsp;<font color="#6f6f6f">LISA News</font>

  • Los deepfakes se transforman en una de las principales herramientas de fraude - diarioestrategia.cldiarioestrategia.cl

    <a href="https://news.google.com/rss/articles/CBMitAFBVV95cUxQSkktdFIyQnZLeXN4UnIzVzh2V2lYN2RsbHVBUE5nbVd2ZnBoS1g0UzhFVlZWN2cwUVo3UlBEWG5YekxtbUR6WlN5QkVqeDM2b04waWQ2cXZVSG9pc2Nwckp3ZzV1ZEk4UXduY2FfbFlHMUJWZ1FiTlpvQmRhZ2FVR3NNQ3RZR29hdUU5Tjk2cmcyQUdJMFJjdDc3OWZwdkxuUzRsamtfTEFuR3VjTS1Sd0NOaFY?oc=5" target="_blank">Los deepfakes se transforman en una de las principales herramientas de fraude</a>&nbsp;&nbsp;<font color="#6f6f6f">diarioestrategia.cl</font>

  • Estafadores se hacen pasar por CEOs y funcionarios de Trump utilizando deepfakes de IA - Los Angeles TimesLos Angeles Times

    <a href="https://news.google.com/rss/articles/CBMi2wFBVV95cUxPcHlrS1RXeUFXVnNKZS1qaGo5NHVSREhaVzhiSVFzWDk4Z0U3bVVDc1JqSHZzUG9EYkEyRV9jaklMeHIzYTNfczBtZTY4MlY5OHVnSlAwdHc2Q2FnUVRON2RiV0JkZUFHM2swU1BuZU9pelc0WFBvdDI2LUNPbjJxSndlbDk2QmdaLS1MSHAwSDFob0Rtd0h6UDhsVHNoektDVzRYZ1F5cFRuX2tvOGZfM19yNTlESlhaYjZoWmlNb2VyUFd1QktLZ0twazFqLWlKZFA3c2RJcjNGbDQ?oc=5" target="_blank">Estafadores se hacen pasar por CEOs y funcionarios de Trump utilizando deepfakes de IA</a>&nbsp;&nbsp;<font color="#6f6f6f">Los Angeles Times</font>

  • Día de las Redes Sociales: cómo preservar lo humano en la era de bots y deepfakes - SERTV PanamáSERTV Panamá

    <a href="https://news.google.com/rss/articles/CBMipAFBVV95cUxNRTBDSEFIbXdXUlk5aEpkOGVURXZxbTFDQmhwUkVDVUFsdmtsejlPN3pRZldSTlRYd1ZDNGx2WjVXalEtTXVNSzN1VmpmV0kxVkxtdEdUWHQ0bGNkeWJncHZhTGJuTjgxREtMZGVwaUNWcFUxT3hGb3V0WXJBYnVLb1l5Qy1FS3YwMHMyQTJIdnJPTnBwaVpCaDRDSWxnUVhLY0Y5WQ?oc=5" target="_blank">Día de las Redes Sociales: cómo preservar lo humano en la era de bots y deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">SERTV Panamá</font>

  • Deepfakes: la nueva amenaza digital que preocupa a empresas y ciudadanos - Diario OccidenteDiario Occidente

    <a href="https://news.google.com/rss/articles/CBMipwFBVV95cUxNMEZ4YUFHQ3pZeGNBOFptU1lTSWVQSWxOUXdYY2NSZkJzdkRRQzNDLWNZMzZkLTFRcE8yNG5oajVSRlJxT0xNSVFxdHFZUHg4UkZPNFpockxkdW41ajNXSXNoTEJDSl9Sb05CODhTekNXd2w4QXo1ZWZVQ0dLYjllRFhNd0Itdk40YnFpQ2ltOE5uWXExOTlKWHF2ajBzOWJQUy1TTTVJWdIBsgFBVV95cUxNTW0wU2k1cDE2a1JLOFFNT2lITGxfYWdqV2hSMTlwcUhUTFczRzVEd0dBQTJ3MzRENnV0WGR1TllaaXB0WFhMdUZkUjJvcHhHNHZNZkhHTHoxTU5taEJ2NUdFc1BiNmNlTkp1NkZrc3Z3WGNJdG5mN3ptRUZlTnRCMk9VLU9DV2ZLYm5KbDM2SHFrMjFrRzRaRkxmUjlWTm5sczZfQXFxX1FCRWxkNnpQYWJ3?oc=5" target="_blank">Deepfakes: la nueva amenaza digital que preocupa a empresas y ciudadanos</a>&nbsp;&nbsp;<font color="#6f6f6f">Diario Occidente</font>

  • Deepfakes y suplantación digital: el nuevo riesgo que enfrentan las empresas en Perú - GestiónGestión

    <a href="https://news.google.com/rss/articles/CBMiyAFBVV95cUxOZzEwSkhzMnpPWVlIOWRucUlVWFN0SlFRakFrVGdFcDJ6bkJDSzlQcTlFTy1Lbk0yeUZRZTFWUlEzc2ItRjA5bTBuNktCR1hZYkZ2VGJ0ak1OZ0pFUVRUNmFoWFBCR1ZkQUpRUWVMcXM3aW1EVm94cS1qY0xPMHYxeEprZlVHaVhQbUlYbXcwNG5La0lEQ3k0YXcyWlBBOTV5MkhCX2VyYy1HbnNKYkdjdHYxQndLdXhQVkxtWkRkTEhGUjZvMk51TA?oc=5" target="_blank">Deepfakes y suplantación digital: el nuevo riesgo que enfrentan las empresas en Perú</a>&nbsp;&nbsp;<font color="#6f6f6f">Gestión</font>

  • BSides Córdoba: hackeos en vivo, el “lado B” de la inteligencia artificial y deepfakes, en la conferencia global de ciberseguridad - Clarin.comClarin.com

    <a href="https://news.google.com/rss/articles/CBMi9gFBVV95cUxOR2IxdFlkTnZIeDhJdXlNWUZ0VVhJaGdmZHQ0em8yZDhyNVFMaDgzaXFSQ3d6ckhhekQyd0Zhb3lmTlY0U3BuX0FFWUtQM3N6VmsxUHZIS3ZzT0dCQ2NkVFdNVmh0b1l5MjJxdE81UE9KSTVaUGQ5eFVBTE93X2lSVnoxSl9QMHdRNjhvME9BQnpHVFUxaC1YMkRkR0xBekljR0E0aHlWVDNGVEFkUGtFN3pYZFhfenFSOTZPaW85RDJETFdoaGExNkVGOGdVVE9qeW9UZFZmUE4tcUdzaFdkSWd0OG1wNEE0TU9Ud1FFOFlYb3JQNHfSAfsBQVVfeXFMTnIxZWctSDhVNS00dks3dXZxUFNUNFpxdGxWdFBXbTBPaWFTMEgzc0cxTkx0RXVXYkV1M2NqMnBVRFJkbWtEMGJ3eWw0TkNmRG9jUjJrVnlKZzZHZ0RyQ0dzUnJnbDRsUE0zbHNISkxuV2VpRXNmOHpqdDZyeWVkeWF6bGdGa3JuTVlJUUhJVHdEckx2TDlvNUdvQnVKWXpVRl9oc1J1MURJZ0kzNzBiY2pYVk1MZjZyMFR2V1pfZWtPY2dKeVdVRUR1YlRXZk9PdXdBSFlOX1BkMlZXSnlScHB3c2E3dm5nVC1mLVJ2RmRDSC10aHlsOXF4OXM?oc=5" target="_blank">BSides Córdoba: hackeos en vivo, el “lado B” de la inteligencia artificial y deepfakes, en la conferencia global de ciberseguridad</a>&nbsp;&nbsp;<font color="#6f6f6f">Clarin.com</font>

  • ¿Son las estafas deepfake exitosas más comunes de lo que pensamos? - IBMIBM

    <a href="https://news.google.com/rss/articles/CBMinwFBVV95cUxQUE9uRTFMOVZUZmxtZl9tQnBJc0pKZnJVTW1HcW1PN0FHUC11cXNuSXJ0QWNtNHNEUmpqTmtvV3F3RkpzVFlJYU0tQl8wbC1IeThCdzVmVUNQMWVkTUxwSllobG1NRUVWMk1rLXpSbk9wSVVuZEhCeVd6WklHc2RRUDVITEZtSXJ3LWtBd0w2ek1VdmlDYlBYNW1Wb09DWXc?oc=5" target="_blank">¿Son las estafas deepfake exitosas más comunes de lo que pensamos?</a>&nbsp;&nbsp;<font color="#6f6f6f">IBM</font>

  • ¿Las estafas de deepfake exitosas son más comunes de lo que creemos? - IBMIBM

    <a href="https://news.google.com/rss/articles/CBMinwFBVV95cUxQLVdscXJoTl9OVGNyYW5YYkhfbEdsYzg5NWxKUVRpdzBpY2VqMXMxczgtYzBhQzR1Skg2MEV6TDFES2pPZkppRjdxNHdaYmVQU3RGMmJab21IUWp3SnRTVHNFLTZoUWRMMWc0bl9VRTV5NXNHQWtfY0FHSEROaFBfUTdxVmFJNjhndlZmY2s2MzFJenowM0hpd1BjWnhXTUU?oc=5" target="_blank">¿Las estafas de deepfake exitosas son más comunes de lo que creemos?</a>&nbsp;&nbsp;<font color="#6f6f6f">IBM</font>

  • Aumenta el fraude deepfake ante la inacción de Google, Meta y TikTok - LISA NewsLISA News

    <a href="https://news.google.com/rss/articles/CBMipwFBVV95cUxOQXVuT3gxeUlDMXc4OTRJSzRlNTBQZVdLU2MwVEszc0hwN0k5TFhyczhLSUxXaXFMUk0yM0N4TEVnZlY0YTRkSkV4ZDN3VHhvOFlINVJhU0NYdGhwUThuc3lxN2s5bW1JZ3BGUF9MXzRablZtUXZPVHlEOGlzbjdpUGYzV3RYNVBIOTRnWWZWZGxEY2lROVdrRnZCVHNrdjBfcnNsbnYxTdIBrwFBVV95cUxQb0JoN3ltbVNoeFQ2TW5jSDZnbE9JVWIyMU5nQWI1OEQ4Y1RJVnMzbC1jRElXa3gzWnNJQmd2SXptUUE1UlAxVlNBYkZ6UzlQMzcxb0NtaVN0MHBsem5yYlNqazY4VmNNM2tHaUthNVc3a0hKaGtUSmhSeWRURTRNUWY3T3VnY0N1SC0tQzNRam01bTZhWWJ3Y0h6NTVaX1FxZHBmaWNjVDZPX1ZSRlFz?oc=5" target="_blank">Aumenta el fraude deepfake ante la inacción de Google, Meta y TikTok</a>&nbsp;&nbsp;<font color="#6f6f6f">LISA News</font>

  • El engaño impulsado por la IA: La nueva cara del fraude empresarial - WeLiveSecurityWeLiveSecurity

    <a href="https://news.google.com/rss/articles/CBMikgFBVV95cUxPci1rUVg5blFJMWJ2SHZja0hiTFFGMFdmQUV5TGtucnlCOXFCakhVU0dzVGRXbDFLZkdCUENLMXl3MmJELW9qOVRGZk1qVk0tOF9YWlpqa0VuRC1yUmFHbURDbERnTnNJTVFpNjlDYm1EdzA3c3F2Rkd2NWpwUkttYjZZOE9pLWdTTE43VDlnLW9Sdw?oc=5" target="_blank">El engaño impulsado por la IA: La nueva cara del fraude empresarial</a>&nbsp;&nbsp;<font color="#6f6f6f">WeLiveSecurity</font>

  • Los datos indican que hoy te toparás con un deepfake: aprende a reconocerlo - McAfeeMcAfee

    <a href="https://news.google.com/rss/articles/CBMixwFBVV95cUxQVTNYWFZsS2twWnVJX3N3Rk11djc4NTBkbWRWZS1GaUsyT0lIdVlpZGczUzBFb2hzbUxDMGYxNG1Wb3JqNWZpZ2R6UGNkcVRpUmM1TnJsa1J5azN2QU1UQmpKUEdwQVo4NWJQYXphcDhCUVFPNGZwdmhVS1FXQUpjVk9xQ00ybTQwcnN3dGU0Tk5IbnRkRm1mZUtCX0FzaHpiSkc4dTdZSEh4VkFxVnZ1eU4yN294UzNKd1otdXZLc0VBWFpvVS0w?oc=5" target="_blank">Los datos indican que hoy te toparás con un deepfake: aprende a reconocerlo</a>&nbsp;&nbsp;<font color="#6f6f6f">McAfee</font>

  • Deepfakes y porno digital falso: el uso de la IA para atacar a mujeres políticas, activistas y periodistas - El HuffPostEl HuffPost

    <a href="https://news.google.com/rss/articles/CBMiwgFBVV95cUxPUlRadk5kRGc5VmxFY1c0TUFDdzVuTm1nbHZ4bDlaVzlvdm05amtGbzZleW5qV1lRUjVhaTNjOUk2eWxOcUtNeFZXRjB6dGtRZnBEWV9FNUtiQVh1UFNhMFpSNmFWeTV0OWlrR25IN0tXRzVwSGs5WVpyamZvTkd6Y2RmcWNTLTNGS2lSbnNCR3JDb2VFNlNaUmtyMzdZT0JNTWlqU2dob1lIU19ZZUxqQmwtQXZkY2p5UC13d3NLV3ZEQdIB1gFBVV95cUxOcnZuRW5Kb3hQaWxoZnIxT09vcGU0MmFfaXc5LWl3NXRjZTE2QW85UFFQclhrQ2NSTFltZFA5Q01VV3FKSDNCZ25rS1hkRGU4WmlMY1dEbEpxcXQxdDFNdDBTSFNQR292OF9SQnhRV2hlLWZtdHRGXzAtSlFyMDNQd25ReTFtQk5TRjdUSS0zWTJhODJnZzRmNnhCczc2ZjVnTDlua0Yya200YlRtaHE4NlZEcHNQVGhHTmFTNDBiSVhlREpMSHVkbk9FZnlSUWRIMmNtb2Nn?oc=5" target="_blank">Deepfakes y porno digital falso: el uso de la IA para atacar a mujeres políticas, activistas y periodistas</a>&nbsp;&nbsp;<font color="#6f6f6f">El HuffPost</font>

  • Los intentos de fraude con deepfakes han crecido un 2137% en los últimos tres años - ituser.esituser.es

    <a href="https://news.google.com/rss/articles/CBMivAFBVV95cUxQZk1rNTNWb254WTJnSlNIVlFtRlZvYVdybkRYbGVDZXNoWjEwYTNfYjJmT1BzQmZOTWkyNHhXLWJPLUhrMVpoNHhzWXEydmlWVHhDN1paTHB0cWljT0d2aUJwTlMyV1BodU9OdFI2aV9kYzF5WmxtcnRRMnNMYVlodFlHSkRHdGxmS2NBSy1GbldGWmM3M1dYeUo4QmhVSGFkbjM4YVR3NWl6eXVadW5qZGhCSUdmb2Vsb25vVQ?oc=5" target="_blank">Los intentos de fraude con deepfakes han crecido un 2137% en los últimos tres años</a>&nbsp;&nbsp;<font color="#6f6f6f">ituser.es</font>

  • Cómo la IA está facilitando el fraude de identificación - WeLiveSecurityWeLiveSecurity

    <a href="https://news.google.com/rss/articles/CBMinwFBVV95cUxPM0dhaWl3NUZ5bmltczNoZzhyV0U2cXhXcE10VEhyeWgwci1rVF81aU83OF9jRTBobmUwNUx3bG9ocHBwUnZYSUZmMzhzMmJLWGlWNEh6S2VaazBNbElVMkhRcW9fRy1lZnRUcFpDQk56eWt6anZ3WXJLOXVvNVBIOEFjTEswNm0yOTcwaUthWGhXQllEMENpT3p0TnJPY2c?oc=5" target="_blank">Cómo la IA está facilitando el fraude de identificación</a>&nbsp;&nbsp;<font color="#6f6f6f">WeLiveSecurity</font>

  • Ciberseguridad en Colombia: aumento de deepfakes pornográficos genera alarma - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMivAFBVV95cUxQSEhjTWI1eEI1MUpSVzRJdHFzZ2NXZkZ5bHVNakg5Ykk2enhCeEZGNHFPODZScmd0bTJMNDFzUFlfNjFQMExGaUxYbEptNlg3dE1KN2tUWHlETkdnWTVwQTlTQlFXVElzRzNQYUwwa1FMUmx0V2ItRTFhSFNWR0NGODVVb2s2V0VGemxQLVp5aFM5RTA0WjJaczlnQU1ySDdnNXY5T3V0cjhkUlNnYV93Q2xNWDZMWERzS2h1NNIB1wFBVV95cUxPZWRaQXJCcWt6Tk9SZkNYR1k4dENzNjZNQTRreXF4QjFuUjZJR0ZnTWtKWWtxVDJVdXpkMU1HZTdtWWgwVXVoSFZCNXpSdHBqV2FSS25JWnhSMXkxTWl0RE9OdmhFMDZkbi1EcjhYVXFhT19seWxkSlhOeWJ4Z2Y2TmxCT2ZOeWxMdjJfYVU3NVI2YmlyOU82YzVxdUNOTzFWdk1yMVVoa1AwUV9PUmFPVkFMY3ktcF9BRDE2Z0xXaW5DM3o2SjU1UzlJTGd2UFExUFBYMFRDZw?oc=5" target="_blank">Ciberseguridad en Colombia: aumento de deepfakes pornográficos genera alarma</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • El universo del fraude en Internet: cómo la IA está revolucionando las estafas online - McAfeeMcAfee

    <a href="https://news.google.com/rss/articles/CBMijgFBVV95cUxPTkxXSWxWZ2s1UDBhbWVMSjNYZ1lPY3VxVjJna3diTDd5ZnNVc3RVclJYNS11NHpGNWQzZE1IMFVyREh3SUZXVWw4VFBVTUFadks0ZS1IUU1DaTBfWjhXUUh5VDh6am8wRTQyd3ZYcmJCSlVHVkVZY3h0ZG9BaTd3LTU0bF9MYkxoRG96X3Vn?oc=5" target="_blank">El universo del fraude en Internet: cómo la IA está revolucionando las estafas online</a>&nbsp;&nbsp;<font color="#6f6f6f">McAfee</font>

  • El universo del fraude en Internet: cómo la IA está revolucionando las estafas en línea - McAfeeMcAfee

    <a href="https://news.google.com/rss/articles/CBMijgFBVV95cUxPcmRTbEljS1BwNGRSbjJtVDdlVkVKczFPb2lfUFRUOWFCY1N6WTluYlAtWVZhRWV2SHRsWHpWNGx5UTc0Y2Z5VU1xOEQ1R2VNNzBDOC1pVEl3SWpybFVtbG1xdXYxM0E0bWhxb2tZWTFvVEx3RVR0anlMSGdMNW5QSTFfSFQ5QzE2Tnc3aHBB?oc=5" target="_blank">El universo del fraude en Internet: cómo la IA está revolucionando las estafas en línea</a>&nbsp;&nbsp;<font color="#6f6f6f">McAfee</font>

  • Deepfakes e inteligencia artificial: el vacío legal que expone a adolescentes en las redes sociales - UnidiversidadUnidiversidad

    <a href="https://news.google.com/rss/articles/CBMiywFBVV95cUxPYTFHRjVZM2hhZnp6V28xSWl4dGVKU2hCSVdSaHZQdU9xdVFKcnF5am5BR3plalJXN1RBeVFoT1dsYmtpeWZIOEo2OHROQUFPSll1VTQtS3hmejZhS1RiT3FFbmVIQkJ4azNYU2dtOUprRXlwVG1VNVpFNFFnaVREX0lKNUpXZHBuQVh4S3ZxMVN4UHpDVFNNNHZyZlEwa2tMajlXSGt1SjRYNXZsMVR0ZFlwVE9fd1N2QkV4ZUQyU3FubG5IZlpPSjMxOA?oc=5" target="_blank">Deepfakes e inteligencia artificial: el vacío legal que expone a adolescentes en las redes sociales</a>&nbsp;&nbsp;<font color="#6f6f6f">Unidiversidad</font>

  • Deepfakes y adolescentes: existe un vacío legal sobre los videos con contenido sexual creados con IA y su difusión en redes - ChequeadoChequeado

    <a href="https://news.google.com/rss/articles/CBMi8AFBVV95cUxOS1ZaVWRNMlNWUDFLaUVSSmd0NnhWMzdqQ09uXzV0MHZwWkVYNEJZSXBiMkg1UGNRcUs1cDN2blhhNTNTNWphWDVpRzVOcGRNb3dkeEJjellZUVdXUEJsbzRwSDd1MTNhVjR6bmttTF9FUTlNUHgySHpoa2pKT1l2cFZseEQyWlJscmdSZEx1UFFVU2dzWDE1UFdtdi1Qa0toc29FSVVqTEZWM1RmNmVBZmdBTW1YVDdBSUpRWGNiUzRuWjlkNFNzbUJrdm9pZzJGR1FxZy1ncjJySkp6Zmsza2x6dF9GVGVJUEtpWk5QQVY?oc=5" target="_blank">Deepfakes y adolescentes: existe un vacío legal sobre los videos con contenido sexual creados con IA y su difusión en redes</a>&nbsp;&nbsp;<font color="#6f6f6f">Chequeado</font>

  • Trend Micro actualiza su aplicación de prevención de fraude con inteligencia artificial, agregando funciones para identificar estafas deepfake como el intercambio de rostros y garantizar la seguridad del contenido mediante la verificación en línea | mashdigi - - MashdigiMashdigi

    <a href="https://news.google.com/rss/articles/CBMijgJBVV95cUxOenl6S1U0cEUtZHRpRlFHZGdsaUZsU2QxWm5hVl9Kdnl5SWdWb0p2SnJMQ1hlazRtRHJWWnA4clJzb3hZeUVFbnJwUXFZVTgxZW1FY0VBZmswTzFGWFJXSzJGWWdINGljNjJkSFFXZHE1a1ZRb0NRQnVuekN4S3B0Y3VCT0VZQU5TQWtEdUltMTBYVm0zeUxQUUowLVExcHF0NzdicGZpNDduVXZKQU8xS3MweFFTNl9qZFZLMzBvOHNPd3ZSdjBzcVhKZndtcWxvUjd6SmZMUTZkYXpUZlVzb0c1d3B3NUp2R3dNeUNIM05LTUhZc2Vpem5LN3Eza1AwU0dFM1VKOW9vMDFJaVE?oc=5" target="_blank">Trend Micro actualiza su aplicación de prevención de fraude con inteligencia artificial, agregando funciones para identificar estafas deepfake como el intercambio de rostros y garantizar la seguridad del contenido mediante la verificación en línea | mashdigi -</a>&nbsp;&nbsp;<font color="#6f6f6f">Mashdigi</font>

  • El riesgoso impacto de los deepfakes en el mundo laboral - La TerceraLa Tercera

    <a href="https://news.google.com/rss/articles/CBMizgFBVV95cUxPU1dWdHNZdXZsSkJyS3hsbUNCSTdENEc1WHdyZkVUSTlqRnJCTkJ3UWpnSWp3azFIYTJpclRta1BQVUxsN1pSZG82OVhCYkFwS3JMMTI0N0dTaFY1SU9zd2NfQWR6WlVnVlU4WHVQVXhKUnU3THNkZXlKcnhwZVBEM1NVVnBzSFdrODc0SlJZaUpRdExBNXNCZjdfT2xDc3hpNkdmM1F1Y3hWNGNLbGpXNjhUM2VxSW0zM0NtNldxaFF4Qlh2cXNYM3JXYzNqd9IB7wFBVV95cUxOQ0dVNzlDYV9pTzVkS3JheENmM3FkU29kNmM5T0d6ZjFPUTFWVEdPelVnMlEwSHdGdVdXWm9pNnhLcUhtV0UwX0FZTVZBVF94SkZ1dG15M0xmRXNORG1iT0FlbGlMWXRPRFl6eGJxeVAtYzV1QkdVdl9CT0hYTGFCdE96T3oydllReDhSQWJWck1RYXNUWTFwd2JZTVpJTzJEOHFKNmNkSXFELW9PanEwUnJaanlnQjQzZjdGcDk0Rm9na3VyS1BUdm15VXV2WDlWUURqbVhKNTJBVVFnMWppN0F4S05XaVNzUHRRVkZGRQ?oc=5" target="_blank">El riesgoso impacto de los deepfakes en el mundo laboral</a>&nbsp;&nbsp;<font color="#6f6f6f">La Tercera</font>

  • Honduras debe legislar contra videos ultrafalsos (deepfakes) - www.laprensa.hnwww.laprensa.hn

    <a href="https://news.google.com/rss/articles/CBMitAFBVV95cUxORlREdFFNVHBjNGFIV1lMUU55Q09pMlFRUm9mZUZWRUQ0VWh0d2pJZENMVnh3VG9KOVdFQ2swbVNDUHphb0NTMGROb05NTUdlUVlQaWRYNGNnbWVjbk5jTmRiSEpGd3ZtV1hTaE9QcUd2WjhJUUhTTXhTRkVvSC1ZaGpmOGRZZFlrWFZURGx0YXBYbm81ZUVCMmxzUjh6ZWo5cFYwRXd4RzBzWWZNVXV0X1NNOHLSAboBQVVfeXFMUFl1LU5XcktHeV9SdnpxdG5RQ3Y2OXFiVm14WTdnaUZ2anY0dlNjYnQ1OGxpa1JDUjZ3R1lyWmdaNUtXbGpKSHJSbXUyWkt2d0VTT3dKbDEwNXFGeG1TejdzNGFaMGtqSS1tMDJlazYzNmRVejVUaUItT0ZkNklkMzR2Nlh3RVhfaEdOZUMtaWhQbDd3dWlQMFNIUW9WcHBKd080T2FVNEh0NnhUR0p0eml5aktRRHRiX0Jn?oc=5" target="_blank">Honduras debe legislar contra videos ultrafalsos (deepfakes)</a>&nbsp;&nbsp;<font color="#6f6f6f">www.laprensa.hn</font>

  • Descubre los peligros de los deepfakes y cómo protegerte de ellos: Experta en ciberseguridad responde - El Comercio PerúEl Comercio Perú

    <a href="https://news.google.com/rss/articles/CBMimgJBVV95cUxNeU1mQkdfZS1GQ0JqaDN1Y2JEN19IWVptM0lIT09kRXZXd3h4NXBDRWFCeDBaajdHdTRZS0JCbkd3OWNxUVljWHVweE1RQWFZOTdNZFZtMUwweG5XU2tHNmwxdS1yRklSSkZ6UFBPWUVKWHBXYXdmVElpWkxhUDNOV3ZTaFEwZlpzcG9Tc3VRRHdIZ3phc2VWTmhvdUdyUkhTZTdhcmdDV2NETWU3bzNmYVpuckdMV0RpelZzdk56MXpVcFBfNk11Uk15eDI4X1VzelNNMWNIUGJJOWZwS1NOLU1nM0d5YkxwQkJYdXJ0SDZRTVRZdUt1VVYxM1lMVFh3Zk1VOHZMcmd6eUhfWWhxaGRaY0l4NUYyRnc?oc=5" target="_blank">Descubre los peligros de los deepfakes y cómo protegerte de ellos: Experta en ciberseguridad responde</a>&nbsp;&nbsp;<font color="#6f6f6f">El Comercio Perú</font>

  • Deepfakes, la amenaza en Corea del Sur - Panda Security - pandasecurity.compandasecurity.com

    <a href="https://news.google.com/rss/articles/CBMirwFBVV95cUxPQVQ2clAyRnZ4RVZlcTZ4Unc3MXRldDNrUnlDVHNEeThsdkJLUkg1elVleFBCQ2ZQRHRIQThpQnNzcUNVanBsQnpQbmMwS1J1YmxWd1lGMnB1RnZNVjJvX0VNcHdkTml6N2M2OXRqNUt0R2YyMTdERW0welBuMXh6Smt4bXp6c0Q0RjNSN2x6TE80Qk9xOWpUTUk3SXRfeVpSWHRkN1BMY3UxckxHb2R30gG3AUFVX3lxTE01VWpDRFBrLXpIbVNaTXlHdnRSS1dod2lJNVYyMHVTeFBUNWJzM3VUekh1OVdJNUxYMkNIcEdRZERVQkpzZDVwTVF0clAzdmFNWHBYT2pPRjd5WFlaODlhU0NqOTIzcmJQenc0YWlrME9NZTVYcHFZbHFpbjM3M01ZYUFYc0VKWGNHWk16UjdiNm5vX0h5OTRScGZxQVNNM1pFdUZiYzNhVzZVN0V4ajFhSHBHZzNpRQ?oc=5" target="_blank">Deepfakes, la amenaza en Corea del Sur - Panda Security</a>&nbsp;&nbsp;<font color="#6f6f6f">pandasecurity.com</font>

  • Herramientas para detectar deepfakes y combatir la desinformación - WeLiveSecurityWeLiveSecurity

    <a href="https://news.google.com/rss/articles/CBMiswFBVV95cUxNVGdyWWVWYzZNeWlMbC15cFFNNmREd0h2cnNnTi0tOEhCWVRxUUtfRlhGb0RiU0hCZEtvaVRaZVc4bHBLSHRfTTBWYkxEb29WNHpFdUJsdEdwTzYwZ2pIcXFKcnhkT1FSdGU4MGkyWXVudlFPZUFqS0JSOEtKd21ya1dPcDlOSWViQ20yTGNQYjF5dXlhLU04YWl3d3NxX0JiX21yOWdaX3FEb0kwMnhlaWFTOA?oc=5" target="_blank">Herramientas para detectar deepfakes y combatir la desinformación</a>&nbsp;&nbsp;<font color="#6f6f6f">WeLiveSecurity</font>

  • ¿Qué son los deepfakes? - MalwarebytesMalwarebytes

    <a href="https://news.google.com/rss/articles/CBMib0FVX3lxTE9sZE1ibmpJTWp5V0R5RWhBVjdySlY1M0lwTUdORGowSzJCeTNEVzczbmdpSHdwV3YtS1ZKMkZhMG1IUnJLN1p4SUg5UFhZdVFpakVPbmZCM3hJdUpoTUQtT1pIcVExRjFubVAzcGprbw?oc=5" target="_blank">¿Qué son los deepfakes?</a>&nbsp;&nbsp;<font color="#6f6f6f">Malwarebytes</font>

  • Deepfakes e Inteligencia Artificial: un análisis detallado - WeLiveSecurityWeLiveSecurity

    <a href="https://news.google.com/rss/articles/CBMinAFBVV95cUxQMGNsQk5ObzU3OUk1a3NveUF1MTZTazRsSzNiMS0xLWstQWhNU3hEU2hvbmNDVW5sQ0FjT1hEVFZaN2xIVEtEQmxDWGVNQjV2TEJKN0dZU2FmdW53bHF0YjloakMtVl9aSGNNZnVVcVlDZzNrX3ktT214N2xJVXMtSnhXdlBpMEt2Nm9lNWlrQXpoRXhXNmF0YmYwbUE?oc=5" target="_blank">Deepfakes e Inteligencia Artificial: un análisis detallado</a>&nbsp;&nbsp;<font color="#6f6f6f">WeLiveSecurity</font>

  • Crear (y no solo compartir) imágenes deepfake sexualmente explícitas será delito en Reino Unido - WIREDWIRED

    <a href="https://news.google.com/rss/articles/CBMipwFBVV95cUxPOXpHZkRnQTNGSEZDVERzd2t6TTc4bEtXeEk2TlRPWWg1NXJ3WFBScHJLZkVsa2pyMGtlaWg3aUNiZnY4ZXpneURtWnlVcWxKSVNtU21JZGxfRnNRbGlPc1U2Q29Jc1VvLU94LUFuVnkyZmNLcWtQSTBiaE1pNGV0UHlOZGFwajZZVU0tRDVfOW55Y3dhUUdGZ0FXZGFCWWFKcHEyX2F5OA?oc=5" target="_blank">Crear (y no solo compartir) imágenes deepfake sexualmente explícitas será delito en Reino Unido</a>&nbsp;&nbsp;<font color="#6f6f6f">WIRED</font>

  • Un Programa de Formación para usar Inteligencia Artificial en Seguridad Ofensiva & Seguridad Defensiva - Un informático en el lado del malUn informático en el lado del mal

    <a href="https://news.google.com/rss/articles/CBMiggFBVV95cUxPV1IxU1ZHTWNBakZsMTNhOWwtZ2FJLVhjdGtkVGN0blc0UExLSjlacXNVWkhoTGw4RTJCcXZ6dmt3ZVk2Y0IxelFXeWtOM1AyRHB0SE5UbGs1LTdseFNHOU82T2xaOG9JTVNMZ3FxOWMyR2tFcXk2cUdVSXlpa1dKQ0J3?oc=5" target="_blank">Un Programa de Formación para usar Inteligencia Artificial en Seguridad Ofensiva & Seguridad Defensiva</a>&nbsp;&nbsp;<font color="#6f6f6f">Un informático en el lado del mal</font>

  • Estudio revela que 53% de contenido para adultos producido con deepfake utiliza a celebridades femeninas coreanas - Unnie PopUnnie Pop

    <a href="https://news.google.com/rss/articles/CBMi3AFBVV95cUxNcFp2Unh1aUNiX3FHRGFaTFByMG81M3FSd19oMGRhWTJLcGNzNm1FZUFDMzExeEMwWGVfWjl4QkNXcU02NjRoZHlBSjNpSGRPMFRhUUprcDItWlUwSFczS0V4ak1POXp6Ulh1c1JHTS12MkxCUzUwOUxqcVlfSXdNTXVrOVVCZkhIUHpDYjBEaFgwSlk2MDlpbExxdjNRS3lkOTFJLUFRbmxlRXpicXh0YWdYVTBxTHB0Y1JjYm9VYlZSWktIY1l3Y0E4Mm1nWGg2SFRxMFJxMFJhTWo1?oc=5" target="_blank">Estudio revela que 53% de contenido para adultos producido con deepfake utiliza a celebridades femeninas coreanas</a>&nbsp;&nbsp;<font color="#6f6f6f">Unnie Pop</font>

  • Alerta por deepfake de Lionel Messi utilizado para promover una aplicación fraudulenta - WeLiveSecurityWeLiveSecurity

    <a href="https://news.google.com/rss/articles/CBMitAFBVV95cUxPYU9ONm9LT3Zlal9qYjgxSk9MSUZVbzFhZ0NYdlpXaDNsZjgzd3AtYnIySWotazlwVmdyZW5kQWg2R1NydG9nVG1vU0ZTOEdOc3RNUFlyaTI3Tmx4RF9QeWZCanFzZklpNWhDM1BxOFJsN0pScDU0QjZHU0VzVjB4OVVGbnBjd1JMWWtZamFyVkQwRG5wM0V5ckJSYXRud3p5SDRrSWFTSmhtQXRCakp2enBHZjk?oc=5" target="_blank">Alerta por deepfake de Lionel Messi utilizado para promover una aplicación fraudulenta</a>&nbsp;&nbsp;<font color="#6f6f6f">WeLiveSecurity</font>

  • Alsina y Feijóo no venden fondos de inversión - Panda Security - pandasecurity.compandasecurity.com

    <a href="https://news.google.com/rss/articles/CBMijwFBVV95cUxOQ2t2WW90NEQ2U28tZFFtOVhjQVlKQzFsUFJ5TzV0TXJndmRucG9GaUJDV2dOUEFvWTZ2WEFNb1I4YVBTSUJ3bHcySm5aR1BDQ3N5N05mNmlOdlMzbW1zMHR2TmlWS0NMSVluVjdSeFZiWE13c3hqV0pEb21kM3VtZUNpRTlDU0VFcTM2S0pKY9IBlwFBVV95cUxNVjY3Z1VDRTJpMXk3RUE0VjQ4eVJTeHRFUWJrVXZGLTBpbGRuMTBGQ0NON0VKOEVqMW5tNzJveXg2MkdzT2tPQVFnR2JVLUlqSDJxc3RER3lTeEdYenZrZzI5X1ltLW9TRnZhVkl3S2VQd0FZbDF3aHhUZjRpaHhvR3lSZS1PeUNOeWx2aTZkeUZGY3J1NUZR?oc=5" target="_blank">Alsina y Feijóo no venden fondos de inversión - Panda Security</a>&nbsp;&nbsp;<font color="#6f6f6f">pandasecurity.com</font>

  • 2023: el año que el fraude con deepfake se disparó-Panda Security - pandasecurity.compandasecurity.com

    <a href="https://news.google.com/rss/articles/CBMif0FVX3lxTE9sOEIwVWJmQ1BBZWRSMDZzZ1V4LW85dXcxZmFQRjJ6cGl1QkZpSklGVG41MjAtVVJtaXJpMFI1anhQN2pGVE5UdUsxTUNLcDRkMVFKekVCZ2w3ODU4M1FxT2FOUWlVU19Tb2MxcnRsV09kYnE4cHBJZS1WNEt4R1XSAYcBQVVfeXFMUE83V0c3YlhRWHBWN1F5WnNlY25lMDdydVlOVTJMb0hfbnR0RWJJdU1QZ0kzZVpmU3E0bzdlaVdLdWt3dWw2cjVfdzBpbkpxNDVvTzNIbkNCZ1hCSjV6SFpLaU1XcmpUTEdRX3FRRVh5WF9zcnhGc3dEZW9uTFkwWk5VTkZ1OTVv?oc=5" target="_blank">2023: el año que el fraude con deepfake se disparó-Panda Security</a>&nbsp;&nbsp;<font color="#6f6f6f">pandasecurity.com</font>

  • Conoce qué es un deepfake sexual, la nueva forma de acosar sexualmente en internet - InfobaeInfobae

    <a href="https://news.google.com/rss/articles/CBMiwAFBVV95cUxNTEE4QXpsbVhXcENSOXpNWW5DVFd4UXM3WUctVGxZSnVCUXpxU0owOFY5bTk0SnRoME91alJQam1wRG5SVXE0SGFaeExNTzRCdTktN0x5dE9SNXFtdFJHY2hlUjU5NndCZV9vMm4zd0MyYVNIbk1tLTNnMzZfZHpuazVFWGpWb3g4VVRlMWlRc1B1V0hmQVNmRlpRa0NPbGk3dFpFbnJPOUZPZjMzWGtXNkxqLWVrRkFSTmV5MjN2aUnSAdsBQVVfeXFMUGhNR3NRclZEZVBmMHNSbjJoTE01NTNlTC1DalpYNnY4Z01XZFpZaFR6R05maFk2RzdKT1dEcnZWOVMwQmdYQWxsUWR0YTNGd3NMX3BpMXA5ZXFBcVFvOHBmMG1NOGVTdzNOcmFqNzlSUElKTDB3TGZvQlVIYWlpSkpmekpWd3d5eGlQRlhOdEMzOFdJcDBPN2RVb04xMFVIMkVvWkFvOU9pTVdqYkJlZ0lDSzVsNTNWVkJVLTZTbk5UelZHUGx0dzlDSU1GNUlyb3hHbUNmVm1GcHM4?oc=5" target="_blank">Conoce qué es un deepfake sexual, la nueva forma de acosar sexualmente en internet</a>&nbsp;&nbsp;<font color="#6f6f6f">Infobae</font>

  • Deepfakes: Cómo esta forma de diversión se convirtió en una seria amenaza para la verificación de identidad - Portal InnovaPortal Innova

    <a href="https://news.google.com/rss/articles/CBMiywFBVV95cUxPd1dURmZwTEdtTW9aUlhZNHFTVUc0cU5mTFB0T2ZvaDRoT3BaZUN2MVlVbmNMNGlQRzhPNnEwSFYtaXNpWVdqa05HVmRpTWJRV0VETjJtN1ZSaGtqS0FMMGNUMFRZZHE1Y1hjZzBfQy1iNUVMTkhLTWxoWTVnd1B2TUxBaDFDTVRiNXlxUjFGWk1OejlfUW9zbW82a05ROU5tQ1Q4NUNiTFdyX0JDby1VbVBkUzdld18xQS1YbV9CV1FFLWNDajBOOTRvSQ?oc=5" target="_blank">Deepfakes: Cómo esta forma de diversión se convirtió en una seria amenaza para la verificación de identidad</a>&nbsp;&nbsp;<font color="#6f6f6f">Portal Innova</font>

  • Estos son los riesgos y consecuencias de los deepfakes - Alto NivelAlto Nivel

    <a href="https://news.google.com/rss/articles/CBMijAFBVV95cUxNeUF2NU8wMzNIRjNELS0zTVRXTFR2ZExKZHA5cm9DNjY2NHdUd1h5S05SQ0FwU1hMR2sxM1JNTnBRNXcwQ0dCTmJUa1Z3WERSYk14WExTUXFHOGVWMHk2b3VIV3psNFB6VnRmRnU3bmplbEI2am44UTVIdEItYVk0d3ljSlJPQ1VuSGpHWg?oc=5" target="_blank">Estos son los riesgos y consecuencias de los deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">Alto Nivel</font>

  • El análisis del mercado del deepfake - KasperskyKaspersky

    <a href="https://news.google.com/rss/articles/CBMibEFVX3lxTE5xV0tQdG51Q2hJOVNrNVZQMlBTLUk1dVJhTXgxTndUMU9qRGo2S21NeDk4c1E4UGxZWXRjeFJ1dVZ4U281VWViX252bWxSRmtQX2hkUGlmd1pYTGpoX2xSQ0Z5VUpYZEVXWHV6aA?oc=5" target="_blank">El análisis del mercado del deepfake</a>&nbsp;&nbsp;<font color="#6f6f6f">Kaspersky</font>

  • Cómo protejerse frente a las ciberamenazas basadas en los deepfakes - HayCanalHayCanal

    <a href="https://news.google.com/rss/articles/CBMipgFBVV95cUxQZGI4NG5KTWwwR1BobnJvT0JmaHdORUdDakFkd0VrbnY2dWlKTXkxdjZUVi1EakVra3E2bWNnWGlFNDhRYlJXWGJHWk42ak5rUmx2blk2Q25NVm9TX2JHUHQ1OEpOWkI0bzRsM19ENUNEM3R4aDZwdjR0b1pwS3p6TUxGeUVCWVhBRDh2Z19WUnp6SUE2VjFhekRrYlRJUmExeDJTcEhR?oc=5" target="_blank">Cómo protejerse frente a las ciberamenazas basadas en los deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">HayCanal</font>

  • Deepfakes: cada vez más usados por los ciberdelincuentes - LISA NewsLISA News

    <a href="https://news.google.com/rss/articles/CBMinAFBVV95cUxNMjdGWGR1Y2I4anZRQ1JPaGVDa1Ryb1ZwUTFHR00zTjdaOEhRLXZUWXNPeFdvXzhCYW9FNXRrc0tDdGNGUXEzQjU3U2hTYkNHVzB2LWFaRUd6eEhySEV4Zk9tSFhUNkVLMkFYTDZsZFhOOFlzZXlNNFRpX3dqVDRZWDdlNkQtS2ZORDI2YmRlQXVfbHRBQkVqWmpURnXSAaQBQVVfeXFMT3RRWTJUN3BLZlBoSEpwMUREUXZSTVk2OGtBVllXNkd6T1AzQmZCYS03X1NTSUZacmNQUzRRSUx3TWxPcFpCcjJXTEZ6MEZ5Zkw3UUVId29wX3otWHJJRnRTeXFzcHhhVkt1X0ZkMWR3UllDNDZReGdVOFIzUnpXYWJMRGFaZU0zSXJvWjQ3eDJ6UVBrUnVxTjQtYmdXMU9ZcGhjWEI?oc=5" target="_blank">Deepfakes: cada vez más usados por los ciberdelincuentes</a>&nbsp;&nbsp;<font color="#6f6f6f">LISA News</font>

  • El uso de la tecnología deepfake para conseguir trabajos en remoto - pandasecurity.compandasecurity.com

    <a href="https://news.google.com/rss/articles/CBMiekFVX3lxTE5fMmdGWTZhLXdvR3haNUdHa2taU2hZaElmc2xqNExKMVlnMjdRNENlclBYbzNMVzFBVVZ6V04zdEZURi00NmRVN0Voa3lKSTJCMHhRX2VIRldiR045cmdGY2Y3Qjdzc0pMOVJPTWp4WkJRZno1SGo5c0tR0gGCAUFVX3lxTE81OG5QWGh2b1FBOVIzOFUzWmczQjk2bU9tWDBJLVhKYWd6SnAxbnkzLVJ4WHNqd05LQXQ4cWtwdmdEWVVycy1ZMHRKRUhVQ1dvUm9fRHJRV2d0RTRkdFRCd05VUHAzdDdxZDRWYWhqaFdkMmlTNkZwSkNnRzZHS2R5TlE?oc=5" target="_blank">El uso de la tecnología deepfake para conseguir trabajos en remoto</a>&nbsp;&nbsp;<font color="#6f6f6f">pandasecurity.com</font>

  • La amenaza de los deepfakes y los cheapfakes - Panda Security - pandasecurity.compandasecurity.com

    <a href="https://news.google.com/rss/articles/CBMidEFVX3lxTFBvQmZrYXl4ckI3WEtWRjVua29zN0tjZ2VYdU1RSFZlbnRCR2FpeVl2OGN5UEUxWHV1a2cxaWt6aUsyWVpaRnhiNFRpS2prVlYwdktHVFpMR2h4UUV6dms1OWtoVEp4d01jX0RURWo5VWpBUERV0gF8QVVfeXFMTmdRR0Q3Q1Y5Sk5IUl9ybDU0ZkVXQkJTdG1Tc3FZY05EdFUzczZFemMzUWJVYzFTTjBsTE5CdS1pZnllZXdzYjFENmlNTkE1YWMyQ2hTWS1SUUFXUm42UlYzQlJEZFFaOEhkWHptaV9BN2pSX0t2YTNPTi1mdQ?oc=5" target="_blank">La amenaza de los deepfakes y los cheapfakes - Panda Security</a>&nbsp;&nbsp;<font color="#6f6f6f">pandasecurity.com</font>

  • ¿Qué son los deepfakes y cómo protegerse? - KasperskyKaspersky

    <a href="https://news.google.com/rss/articles/CBMihwFBVV95cUxNRUp0WERRYU9vY2tSY0ZlcWd2S0lCN0RDekxacGpoY3FZd3ZzNHpwWlVSN0hfSzhqcTZDNXFPX0MyWDRpcUJJRVNLQVFJcW81NklOdUctWE83RjRhcGE5dzBQd3lOWEJpMFNobTNnUU1SbF9FSVVOZWQtZklJY2k1QjNVOE80NWs?oc=5" target="_blank">¿Qué son los deepfakes y cómo protegerse?</a>&nbsp;&nbsp;<font color="#6f6f6f">Kaspersky</font>

  • Cómo reducir el impacto de los deepfakes - KasperskyKaspersky

    <a href="https://news.google.com/rss/articles/CBMic0FVX3lxTE5lTzB4RnBESVhBNUJWbUZNQlNGZEVKakVpUDZkb2trd05La084aGwzT3dpNHJWa0pmSHhzOXl0VjFDRnJheEhXcFpMTEtEZzliMUVxSjhYb19xSVFubGhJOGtURXV0ZkkxbTVvMEVtTk4wTWM?oc=5" target="_blank">Cómo reducir el impacto de los deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">Kaspersky</font>

  • Deepfakes: Qué son y cómo se pueden detectar - Panda Security - pandasecurity.compandasecurity.com

    <a href="https://news.google.com/rss/articles/CBMigwFBVV95cUxOUEVubzBoOXJqNi1MTUpHUkNuanBjWG5sSlFLbzV3TU5wcndqUXRkc1VFbnlRc2poM0xwLWtHZ1VmQlQ3Q1Y3SFc4WVlTcXJhUDZHTHZVZE1wU0plUXhUb25Wb0E3clNOYWk5TDlKS2d5ME5KbnpaMjVlLVNqMlM0LTZsVdIBiwFBVV95cUxNaHVVOXRZUUNNNVloYWhpWjVxMUtnSVZVR3c1MGR5d3l3R1l3UUtVRTl3SW1uWkhRVmh0Z1UzbDZYWklvRjh2eWxCZTQzV1pjanVaNUh0bHhocnpDdUI1MlJuSHJnR3RDcHhweTkxd2wzSjZSNldhUlhReE5ValBLMVJKZWc4em9KNjJr?oc=5" target="_blank">Deepfakes: Qué son y cómo se pueden detectar - Panda Security</a>&nbsp;&nbsp;<font color="#6f6f6f">pandasecurity.com</font>

  • Twitter presentó un borrador de su propuesta para combatir las deepfakes - WeLiveSecurityWeLiveSecurity

    <a href="https://news.google.com/rss/articles/CBMijgFBVV95cUxPdjYzbFp0ZGkyelVQS3Y0ZFBSbUFxRld2SkpSLS1NN0k1dEwwcUhoNThyR0lfY2xtUmw5d1RRSFlGRUhJRWswaU40dmY1R3Fnc0c3akJxSHlaQmpCWUZSTDVROVZGU0RKb3lIenA0Mmx3bjdUb1dkdEQ3VDU0Y05oX2s3RVlrc0pWeUFMZml3?oc=5" target="_blank">Twitter presentó un borrador de su propuesta para combatir las deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">WeLiveSecurity</font>

  • Fraude con un Deepfake: el lado oscuro de la inteligencia artificial - pandasecurity.compandasecurity.com

    <a href="https://news.google.com/rss/articles/CBMic0FVX3lxTE55eTNtb0wzeXdxaVZpUnJiRWhEU2oyZmxZTHR4NkJ0NkVnWFdPOXF6cS0xOEM2TG5EVlR6cWlCNmpZVFBSTWllSS0tNXQ3aHo4OUNpSGVXQVY2NkE3cjFocXdNZ2xudk9XMHNKdzlrR20yaUnSAXtBVV95cUxQcDdjNGYtX0R3WlZLLWYxSzMtMXY1NGltVDhUVjV0ZjdyX3pGRko1Tl9QMUdMeW9tczZZRWt1VFFCekozYVNWNzhBOWFnUTlKeE1IRmNmeFhkeHgxYVNUTGRrSGVFZ3RqM2tzeml5WmdXS0JnSllXenBoRjg?oc=5" target="_blank">Fraude con un Deepfake: el lado oscuro de la inteligencia artificial</a>&nbsp;&nbsp;<font color="#6f6f6f">pandasecurity.com</font>

  • Reconocimiento facial vs deepfakes - pandasecurity.compandasecurity.com

    <a href="https://news.google.com/rss/articles/CBMihwFBVV95cUxNQVNWRmF6RWVjdGhRNTMxOFRJNDJNaUxJa21QVkJNWTZ0MTNrQ1JTWHNrT1RWejM0c0pLNEN6UWROSHNXSW82SDh2QlI1UjdvQnZtTHNjZGwxNFZpSEQtZkF5M3ctTzQ5U0ozMXppcDctRklkQzhMb3l3T3VVbXk5d1VlTE1sOVnSAY8BQVVfeXFMTzBRNEwxTFM1Y0IwdjBreWxianJWSGQzTEJYVzM2TE8zcklCU3lyWFdtVjFEV2NqRlNYeW5sZ2VfUmEtcFk3VkFORWJYWDljUWo0R2VIVGtMRS14RW90MVVMSlQwcjNYS25CN2c0UFpTc1YwNGx3XzRRT1ZmM2dhUGk2dE5PSG9SWlNDZnB4aVU?oc=5" target="_blank">Reconocimiento facial vs deepfakes</a>&nbsp;&nbsp;<font color="#6f6f6f">pandasecurity.com</font>

  • “Deepfake”: la nueva tendencia que amenaza con ser más devastadora que las “Fake news” - LOS40LOS40

    <a href="https://news.google.com/rss/articles/CBMitAFBVV95cUxNenBGVkxpMVlBS1B4SWx1WmpmSGplVlFHWHV4VkpTQkNGV1BkQWpIWnE0UVEtdjhpTVhydFRWbGplQUljbWRmNFNmcjdySm9VaWlvckFHNlJWSjlJV2ZraHVuQWJUMWZ3WGYyd0xiTjE3SUtwa0tnSlZYV0s4MWdTZGpENzZDeDdsZ090UnNRd3lWaGRRTHNZVXBlY2NVcGVhQXlxUU9yem5YaWhJYy1UNW5fR1nSAcgBQVVfeXFMT1dKQ0RNd2FmY2RVTGZSMEpjX00zREZ0ZDBJeWRSX0l4alR5RHB2RDNUNVBid05ITGRRVEtSaHE0Sl9IY2tieXdxdnFhcUc0UjdPQ2JpcUFPRW1xQ1I4TXphNG5tcEgydXdkUDVwNTJqR3BSZk9ONXBYR09ZMV9nRmNpeHBfc0V6Z2dzT0dMazBXM1RxY0RDdXM1TEx1NWFwNFF2TEFMYzB4SV95Umd0YUJmLXdIZERIUjJUandrT3dWRTlSWE52bUs?oc=5" target="_blank">“Deepfake”: la nueva tendencia que amenaza con ser más devastadora que las “Fake news”</a>&nbsp;&nbsp;<font color="#6f6f6f">LOS40</font>