Edición Impresa

Los deepfakes de audio han llegado: evita ser estafado

0

Tras un largo día de trabajo e intenso tráfico vuelves a casa y tu teléfono comienza a sonar. Es tu papá, hijo o mejor amigo, pidiéndote que le deposites dinero a su cuenta por una emergencia que acaba de tener. Y pide que sea inmediato.

Confundido, haces preguntas, tratando de entender, pero percibes que hay algo fuera de lugar en sus respuestas, con un retraso muy peculiar. Te surgen dudas.

Pero es su voz y el identificador de llamadas confirma que es su número. Sin embargo, atribuyes la extrañeza a tu pánico, y envías el dinero al número que te proporcionan.

Al día siguiente regresas la llamada para asegurarte de que todo marche bien. Tu familiar o amigo no tiene idea de lo que está hablando. Confirmas que nunca te llamaron, y fuiste engañado con una voz falsa fabricada por la tecnología. Algo muy usual cada vez más en Estados Unidos y varias partes del mundo.

En entrevista con CAMPESTRE, la Mtra. Nataly Medina Rodríguez, Coordinadora de la Ingeniería en Cibernética Electrónica en CETYS Universidad, campus Tijuana, alerta sobre los riesgos que existen actualmente y la apertura que como usuarios damos a entidades peligrosas, recalcando que en Baja California no se está exento de sufrir esta situación.

“Al utilizar las redes sociales se pueden compartir audios, videos, y la información si está desprotegida ante algunas entidades que no tengan códigos de ética, puede ser tomada para hacer un mal uso de ella”, señala la catedrática.

En ese sentido, los avances en la inteligencia artificial suponen excelentes noticias, pero también malas como ocurre con las tácticas de engaño.

Para contextualizar, a través de software de síntesis de voz como Eleven Labs, que ofrecen suscripción gratuita u otras de 330 dólares al mes, la ciberdelincuencia ha encontrado un nicho para replicar voces de sus potenciales víctimas.

Para ello, sólo necesitan breves audios de los seres queridos de las víctimas y realizar una llamada usando el sistema para pedir dinero urgente.

“Sí, peligramos, y más con la llegada de las nuevas tendencias tecnológicas. Si yo contesto una llamada tengo el riesgo de que del otro lado puedan grabar mi conversación y con sólo tomar una frase mía, ya es una entrada para poder entrenar el modelo de aprendizaje, con el cual pueden falsificar la voz, y con un texto, el sistema que tienen con mi voz, reproducirlo, listo para que se escuche algo que yo no dije”.

“Hay que tener mucho cuidado en cómo vamos a contestar”, advierte la experta de CETYS, quien dejó un dato muy poco alentador, en el sentido de que, según algunos estudios, un 72 por ciento de mexicanos desconocen qué es un deepfake, ya sea de audio o video.

EL PANORAMA

Investigadores de seguridad informática señalan que los avances continuos en algoritmos de aprendizaje profundo, edición e ingeniería de audio y generación de voz sintética, han significado que es cada vez más posible simular de manera convincente la voz de una persona.

Peor aún, los chatbots como ChatGPT están comenzando a generar guiones realistas con respuestas adaptables en tiempo real. Al combinar estas tecnologías con la generación de voz, un deepfake pasa de ser una grabación estática a un avatar vivo y realista que puede tener una conversación telefónica de manera convincente.

“Afortunadamente, las empresas dedicadas a ciberseguridad también están siendo muy actualizadas en estos conceptos. Al salir un problema buscan atacar de manera rápida y efectiva con mecanismos de inteligencia artificial que detecta patrones anormales, como deepfakes, correos, fraudes”, enfatiza la Mtra. Medina Rodríguez, aunque remarcó que para no quedarse atrás y ser superadas, las compañías deben de seguir innovando de manera constante.

Protección contra estafas y desinformación

Dicho todo esto, también hay acciones sencillas y cotidianas que puede tomar para protegerse.

Para empezar, las estafas de phishing de voz o «vishing», son las falsificaciones de voz más probables que puede encontrar en la vida cotidiana.

En 2022, las personas fueron estafadas por un estimado de 11 MDD por voces simuladas, incluso de conexiones personales cercanas. ¿Qué puedes hacer?

“Recomiendo que, si es un video, primeramente, nos pregúntemos si es real. Se viralizan noticias que incluso son falsas y las personas piensan que son reales. Lo primero que debemos es pensar si es real para saber si se comparte el audio o video.

“Si nos genera la duda, saber nosotros e identificar y ser minuciosos en cuanto al verlo, separarlo por frames e identificar anomalías, como los labios”. refiere la Coordinadora de la Ingeniería en Cibernética Electrónica de CETYS.

Otras cuestiones de las que se pueden echar mano es no confiar por completo en el identificador de llamadas, ya que también se puede falsificar.

Asimismo, cuando no conoces el número, asegúrate de investigarlo en Google y pon cuidado con tu información de identificación personal. Los estafadores pueden usarla para hacerse pasar por ti ante bancos, agentes inmobiliarios y otros, enriqueciéndose mientras te llevan a la bancarrota o destruyen tu crédito.

Y lo más importante, conócete a ti mismo. Conoce tus sesgos y vulnerabilidades intelectuales y emocionales, claves para protegerse de ser manipulado, ya que los estafadores generalmente buscan descubrir y luego aprovecharse de tus ansiedades financieras.

Baja California ante la relocalización productiva

Previous article

Grupo de amigas celebran su Primera Comunión

Next article

You may also like

Comments

Comments are closed.