Inteligencia Artificial, cómo mitigar deepfakes

Inteligencia Artificial, cómo mitigar deepfakes. ETSI publica su primer informe mundial para mitigar los deepfakes generados por Inteligencia Artificial, modo de lucha ante mentiras.

Inteligencia Artificial deepfakes

El ETSI lanzó su nuevo Informe grupal sobre el uso de la Inteligencia Artificial para lo que comúnmente se conoce como deepfakes.

El reporte se centra en el uso de la IA para manipular representaciones de identidad multimedia e ilustra los riesgos consiguientes, así como las medidas que se pueden tomar para mitigarlos.

“Las técnicas de inteligencia artificial permiten manipulaciones automatizadas que antes requerían una cantidad sustancial de trabajo manual y, en casos extremos, pueden incluso crear datos multimedia falsos desde cero. Deepfake también puede manipular archivos de audio y vídeo de forma específica, manteniendo al mismo tiempo una alta calidad acústica y visual en los resultados, lo que era en gran medida inviable con la tecnología disponible anteriormente», explica Scott Cadzow, Presidente de ETSI.

Y añade: «Las técnicas de Inteligencia Artificial se pueden utilizar para manipular archivos de audio y vídeo en un sentido más amplio, por ejemplo, aplicando cambios al fondo visual o acústico. Este informe propone medidas para mitigarlos”.

Manipulación

Se describe muchas de las preocupaciones más inmediatas planteadas por el auge de la IA, en particular el uso de técnicas basadas en esta tecnología para manipular automáticamente datos de identidad representados en diversos formatos de medios, como audio, vídeo y texto (deepfakes y, por ejemplo, IA- software de texto generado como ChatGPT aunque, como siempre según las directrices de ETSI, el Informe no aborda productos o servicios específicos).

El Informe describe los diferentes enfoques técnicos y también analiza las amenazas que plantean los deepfakes en varios escenarios de ataque. Al analizar los enfoques utilizados, el Informe del ETSI pretende proporcionar la base para medidas técnicas y organizativas adicionales para mitigar estas amenazas, además de discutir su eficacia y limitaciones.

ETSI es el único grupo de estandarización que se centra en la protección de la IA. Ya ha publicado ocho informes de grupo. Trabaja para racionalizar el papel de la IA dentro del panorama de amenazas y, al hacerlo, para identificar medidas que conduzcan al despliegue seguro de la IA junto con la población a la que está destinada a servir.

ETSI proporciona a sus miembros un entorno abierto e inclusivo para apoyar el desarrollo, la ratificación y la prueba de estándares aplicables globalmente para sistemas y servicios de TIC en todos los sectores de la industria y la sociedad.

A continuación el informe completo.

Inteligencia Artificial deepfakes la voz de chile

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *