ENFOQUE
El "deepfake de voz" es la utilización de la Inteligencia Artificial con fines ilícitos. Por medio de la imitación de voces de personas conocidas, ahora también se pueden cometer engaños. Consejos para prevenir este tipo de hechos.
31 de julio de 2023
Escribe: Lucas Moyano (*)
Especial para EL TIEMPO
Estamos siendo testigos de avances tecnológicos donde la Inteligencia Artificial está cambiando el mundo. Y esos avances están impactando en todos los ámbitos de nuestra vida, ya sean laborales, educativos, de salud, justicia, en las formas de comunicación, en las finanzas y en cuestiones comerciales, por nombrar sólo algunos de esos aspectos.
Las aplicaciones "chatGPT", "Bard", "Dall-E" y "Stable Diffusion" son algunos ejemplos de inteligencias artificiales que se han puesto de moda en los últimos meses y que muestran al mundo su poder y capacidad.
Cuando nos referimos a Inteligencia Artificial, resumidamente podemos afirmar que se trata de una tecnología de aprendizaje automático. Y esa tecnología del aprendizaje la usamos en nuestro día a día. Tal vez, sin darnos cuenta, como puede ser el caso cuando mediante un buscador realizamos una averiguación en Internet, cuando utilizamos una plataforma para comprar productos o con un servicio de streaming, para ver alguna película o serie. También, cuando utilizamos un servicio de movilidad para efectuar un traslado.
En ese contexto, era una cuestión de tiempo que a alguien con malas intenciones se le ocurriera utilizar la Inteligencia Artificial para llevar a cabo fraudes. Y así ha aparecido la imitación de voz. Algo que es sólo el comienzo de los delitos que se asoman en el futuro inmediato, donde la tecnología va a seguir cambiando la comisión de los mismos.
De esta manera, la vieja metodología del "cuento del tío" logra su actualización mediante las nuevas herramientas que le aporta la tecnología, que ahora permite fácilmente suplantar la identidad de una persona para realizar estafas telefónicas.
¿Cómo es la modalidad de engaño? Un estafador llama desde un número desconocido, se hace pasar por alguien de nuestro entorno -un familiar o amigo- y mediante la excusa de estar sufriendo una necesidad económica, un accidente automovilístico, una urgencia o encontrarse secuestrado convence a la víctima de que le envíe dinero para atender esa emergencia.
Hasta aquí es el viejo cuento de siempre; pero en esta oportunidad la trampa ahora logra mayor veracidad gracias a la utilización de herramientas de Inteligencia Artificial que permiten replicar la voz de cualquier persona, lo que hace que el delincuente logre rápidamente su objetivo.
La clonación de voz por Inteligencia Artificial funciona mediante un software que analiza los aspectos que hacen que una voz sea única: el acento, la edad, el género.
Luego, realiza la búsqueda de esa voz en una base de datos hasta encontrar patrones similares y los replica; teniendo en cuenta que tan sólo 30 segundos de un audio son suficientes para lograr esa clonación.
Es frecuente que compartamos pormenores de nuestra vida cotidiana en redes sociales. De allí pueden obtenerse también los datos de audio necesarios para realizar una copia de nuestra voz.
Estas amenazas de riesgo no son sólo para los usuarios individuales, sino que también alcanzan a empresas, bancos y financieras. Y van creciendo un 900% anualmente, según datos recientes dados a conocer desde el Foro Económico Mundial.
(*) Fiscal a cargo de la UFI 22 de Azul y especialista en delitos informáticos.
Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.
04/12/2024
04/12/2024
04/12/2024
04/12/2024
04/12/2024
04/12/2024
04/12/2024
04/12/2024
04/12/2024
04/12/2024
04/12/2024
04/12/2024
Derrotó a Boca Juniors por 3 a 1 en el partido de vuelta de la semifinal y se clasificó para la definición del Torneo Clausura. leer mas
03/12/2024
03/12/2024
DURANTE VARIOS DÍAS
02/12/2024
DURANTE VARIOS DÍAS
02/12/2024
EL PASADO VIERNES
COMENZÓ HOY EN AZUL
02/12/2024
COMENZÓ HOY EN AZUL
02/12/2024
EN CACHARÍ
02/12/2024
02/12/2024
02/12/2024