ENFOQUE

ENFOQUE

Estafas por medio de la suplantación de una voz

El "deepfake de voz" es la utilización de la Inteligencia Artificial con fines ilícitos. Por medio de la imitación de voces de personas conocidas, ahora también se pueden cometer engaños. Consejos para prevenir este tipo de hechos.

31 de julio de 2023

Escribe: Lucas Moyano (*)

Especial para EL TIEMPO

Estamos siendo testigos de avances tecnológicos donde la Inteligencia Artificial está cambiando el mundo. Y esos avances están impactando en todos los ámbitos de nuestra vida, ya sean laborales, educativos, de salud, justicia, en las formas de comunicación, en las finanzas y en cuestiones comerciales, por nombrar sólo algunos de esos aspectos.

Las aplicaciones "chatGPT", "Bard", "Dall-E" y "Stable Diffusion" son algunos ejemplos de inteligencias artificiales que se han puesto de moda en los últimos meses y que muestran al mundo su poder y capacidad.

Cuando nos referimos a Inteligencia Artificial, resumidamente podemos afirmar que se trata de una tecnología de aprendizaje automático. Y esa tecnología del aprendizaje la usamos en nuestro día a día. Tal vez, sin darnos cuenta, como puede ser el caso cuando mediante un buscador realizamos una averiguación en Internet, cuando utilizamos una plataforma para comprar productos o con un servicio de streaming, para ver alguna película o serie. También, cuando utilizamos un servicio de movilidad para efectuar un traslado.

En ese contexto, era una cuestión de tiempo que a alguien con malas intenciones se le ocurriera utilizar la Inteligencia Artificial para llevar a cabo fraudes. Y así ha aparecido la imitación de voz. Algo que es sólo el comienzo de los delitos que se asoman en el futuro inmediato, donde la tecnología va a seguir cambiando la comisión de los mismos.

De esta manera, la vieja metodología del "cuento del tío" logra su actualización mediante las nuevas herramientas que le aporta la tecnología, que ahora permite fácilmente suplantar la identidad de una persona para realizar estafas telefónicas.

¿Cómo es la modalidad de engaño? Un estafador llama desde un número desconocido, se hace pasar por alguien de nuestro entorno -un familiar o amigo- y mediante la excusa de estar sufriendo una necesidad económica, un accidente automovilístico, una urgencia o encontrarse secuestrado convence a la víctima de que le envíe dinero para atender esa emergencia.

Hasta aquí es el viejo cuento de siempre; pero en esta oportunidad la trampa ahora logra mayor veracidad gracias a la utilización de herramientas de Inteligencia Artificial que permiten replicar la voz de cualquier persona, lo que hace que el delincuente logre rápidamente su objetivo.

La clonación de voz por Inteligencia Artificial funciona mediante un software que analiza los aspectos que hacen que una voz sea única: el acento, la edad, el género.

Luego, realiza la búsqueda de esa voz en una base de datos hasta encontrar patrones similares y los replica; teniendo en cuenta que tan sólo 30 segundos de un audio son suficientes para lograr esa clonación.

Es frecuente que compartamos pormenores de nuestra vida cotidiana en redes sociales. De allí pueden obtenerse también los datos de audio necesarios para realizar una copia de nuestra voz.

Estas amenazas de riesgo no son sólo para los usuarios individuales, sino que también alcanzan a empresas, bancos y financieras. Y van creciendo un 900% anualmente, según datos recientes dados a conocer desde el Foro Económico Mundial.


(*) Fiscal a cargo de la UFI 22 de Azul y especialista en delitos informáticos.

Comparte tu opinión, dejanos tu comentario

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.

País

03/12/2024

País

País

Las universidades y los hospitales públicos podrán cobrar aranceles a extranjeros no residentes

País

03/12/2024

País

País

El Gobierno postergó hasta mayo la quita de los subsidios a la luz y el gas

"Vamos a fijar un período de transición hasta abril y después ir a una tarifa focalizada", comentó María Tettamenti, secretaria de Energía.

UNO TIENE 15 AÑOS Y EL OTRO, 16

02/12/2024

UNO TIENE 15 AÑOS Y EL OTRO, 16

UNO TIENE 15 AÑOS Y EL OTRO, 16. Investigan a menores por las sustracciones de dos motos que la Policía recuperó

EL PASADO VIERNES

02/12/2024

EL PASADO VIERNES

EL PASADO VIERNES

Se realizó la premiación del XXXIX Salón Azul Nacional de Artes Visuales

EL ÚNICO OFERENTE QUEDÓ AFUERA

02/12/2024

EL ÚNICO OFERENTE QUEDÓ AFUERA

EL ÚNICO OFERENTE QUEDÓ AFUERA. La ex Confitería del Parque Municipal y una reactivación que nunca llega

COMENZÓ HOY EN AZUL

EN CACHARÍ

02/12/2024

EN CACHARÍ

EN CACHARÍ

Secuestraron una escopeta, cuchillas y proyectiles por un caso de violencia familiar

Tres cuchillas, una faca "tipo tumbera", una escopeta calibre 16 con caño y culata recortados, proyectiles y un cinturón "porta cartuchos" incautó la Policía, durante un allanamiento que tuvo como escenario la casa donde vive un varón al que su hermana había denunciado por haberla amenazado.