ENFOQUE

ENFOQUE

¿Vas a creer en todo lo que ves?

Algunos conceptos sobre el uso ilegal de la Inteligencia Artificial para la creación de deepfakes y la imperiosa necesidad de su regulación en la ley penal argentina.

4 de agosto de 2024

Por Lucas Moyano (*)

Podemos definir a un deepfake como una simulación de sonido, imagen o vídeo que induce al receptor a pensar que es verdad cuando, en realidad, se trata de un contenido falso

El "deepfake" utiliza técnicas de Inteligencia Artificial y toma prestado parte de su nombre de la disciplina conocida como "deep learning", ya que consiste en la aplicación de una serie de algoritmos de aprendizaje para modificar y crear contenido multimedia.

Como resultado, es posible manipular un vídeo para que la cara -e incluso la voz- de una persona puedan ser cambiadas por la de otra. Es decir, se trataría de un contenido falso o "fake".

De manera general, podemos caracterizar a la Inteligencia Artificial como amoral, pudiendo ser utilizada con distintos fines.

Así, por ejemplo, dentro de los efectos positivos está que en medicina podrían realizarse investigaciones que no requieran pacientes reales. Y en la educación, ayudar a los docentes en la utilización para un video de un discurso histórico creado con el fin de hacer que las lecciones sean más atractivas para los estudiantes.

Puede emplearse también como herramienta para la elaboración de contenido de entretenimiento y marketing, creando personas completamente artificiales.

Pero por otro lado, la IA también puede ser utilizada con fines malintencionados.

¿De qué manera? A partir de fotos o vídeos de una persona para simular acciones o decir mensajes falsos que comprometan su imagen.

Esto podría llevar a imaginar casos de "deepfake" dirigidos, por ejemplo, a personalidades del ámbito político o empresarial, con el fin de menoscabar sus imágenes o sus organizaciones para influir en la opinión pública.

En este sentido, las imágenes y los audios de Inteligencia Artificial ya se han utilizado en propaganda y para engañar a los votantes en todo el mundo.

En otros supuestos la IA puede ser utilizada para ejercer violencia de género en línea, como es el caso donde se crea material pornográfico no consentido, mediante -por ejemplo- la superposición de rostros de mujeres, contra su voluntad, sobre imágenes sexualmente explícitas.

Un informe exhaustivo -"State of deepfake. Home Security Heroes"- en 2023 determinó que la pornografía constituye el 98% de todos los vídeos "deepfake" encontrados en línea. Y que de ellos, el 99% de las víctimas de la pornografía "deepfake" son mujeres, vulnerando de esa manera los derechos a la protección de datos o privacidad y -también- la intimidad, el honor y la propia imagen.

El "deepfake" tiene capacidad para clonar o imitar la voz y la imagen en tiempo real, sirviendo como herramienta de suplantación de identidad.

Así, los estafadores ya han comenzado a usarla para hacerse pasar por familiares y tratar de que las personas les envíen dinero. O podrían hacerse también pasar por un miembro de una organización para obtener información confidencial. E incluso, por un candidato en un proceso de selección, con el fin de infiltrarse de manera fraudulenta en el mismo.

Un aspecto importante de su utilización ilegal, y que en lo particular me genera mucha preocupación, es su empleo por parte de los pedófilos para generar nuevo material de abuso sexual infantil, compartiendo después con otros ese tipo de contenidos.

En ese caso, se trata de producciones ficticias. Hechas con Inteligencia Artificial; pero tan realistas que aparentan ser de niñas, niños o adolescentes desnudos o en situaciones de abuso sexual.

Dentro de ellas encontramos a lo "virtual", conformado por imágenes de las chicas y los chicos que son completamente ficticias. Tanto el cuerpo como el rostro, por lo que no se involucran a niños reales.

También está la producción "técnica", compuesta de material que se integra por imágenes en las que aparecen personas presentadas como menores en un contexto sexual. Y en una tercera, conocida como "pseudo", se utiliza la cara de una niña, niño o adolescente real y se hace un montaje con su cuerpo.

En nuestro país estas prácticas aún no son consideradas un delito, por lo que sería fundamental que se las incorpore cuanto antes como ilícitos a nuestra legislación penal.

El fundamento para el reclamo de su punición es que este material banaliza y puede contribuir a la aceptación de la explotación sexual de niñas, niños y adolescentes. Además, ataca a la dignidad de la infancia en su conjunto y a la indemnidad sexual de los infantes en general.

A lo expuesto debe destacarse, como un factor intensificador de la amenaza que estas aplicaciones representan, la rápida evolución de los modelos algorítmicos en que se basan. Enmarcada en un intento constante por alcanzar un mayor realismo, supone un problema a la hora de desarrollar arquitecturas de detección eficaces, ya que en buena parte sus modelos se orientan a la identificación de atributos que muestran inconsistencia con la realidad (parpadeo y movimiento ocular, flujo sanguíneo, inflexiones de voz, etc.).

Algunas reflexiones

Las amenazas que presentan la evolución tecnológica y su utilización con fines ilegales conlleva la imperiosa necesidad de adaptar el marco legal argentino frente a las herramientas tecnológicas que actualmente se encuentran siendo empleadas para la manipulación de imagen, voz y video sin el respectivo consentimiento, lo cual deriva en la consecuente creación de falsos testimonios visuales y auditivos con fines delictivos o afectan la intimidad y la integridad de las personas.

Dentro de la actualización de los tipos penales debe ampliarse la tipificación del Artículo 128 del Código Penal, para que se incorporen las modalidades "virtuales", "pseudo" y "técnica" mencionadas como formas de abuso sexual en línea con niñas, niños y adolescentes como víctimas, a los fines de dar una adecuada protección al llamado "bien jurídico tutelado".

En ese contexto, se deben examinar y responsabilizar a las empresas tecnológicas que alojan estas aplicaciones y a los sitios web. Específicamente, a las que no presentan sistemas efectivos de verificación de edades y tampoco advierten los usos ilícitos de estas herramientas.

En atención a que diversos estudios indican que las mujeres se han convertido en las principales víctimas de estas prácticas, es prioritario armonizar también esas normas penales con perspectiva de género.

Por otro lado, es necesario trabajar en la concientización, prevención y educación social para un uso responsable, ético y crítico de las tecnologías, debiendo ser cada vez más desconfiados en todo lo que nos llega a través de Internet. Y fundamentalmente, tener presentes que no todo lo que vemos es real.

(*) Titular de las fiscalías 22 y 19 del Departamento Judicial Azul. Autor del libro "Ciberdelitos. Cómo investigar en entornos digitales".

Comparte tu opinión, dejanos tu comentario

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.

HOY MARTES POR LA TARDE, EN LA PLAZA SAN MARTÍN

19/11/2024

HOY MARTES POR LA TARDE, EN LA PLAZA SAN MARTÍN

HOY MARTES POR LA TARDE, EN LA PLAZA SAN MARTÍN

Integrantes de la AMMA se manifestaron contra el abuso sexual infantil

VIAJES

19/11/2024

VIAJES

VIAJES

Las nueve predicciones en viajes para 2025

Del estudio de Booking.com se extraen algunos datos como que: los padres prefieren gastar la plata en viajes antes que dejarla como herencia para sus hijos.

ECONOMÍA

19/11/2024

ECONOMÍA

ECONOMÍA . Los mayoristas lanzan una semana de descuentos en busca de reactivar las ventas

TECNOAZUL PVC

SALUD

19/11/2024

SALUD

SALUD

¿Cómo avanza la medicina de precisión para tratar el cáncer de pulmón?

ECONOMÍA

19/11/2024

ECONOMÍA

ECONOMÍA . Monotributistas: podrán emitir comprobantes de facturas desde celulares y computadoras

EFEMÉRIDES

19/11/2024

EFEMÉRIDES

EFEMÉRIDES

Pasó en Azul un 19 de noviembre