Producir este material ahora es «realmente fácil». «Hay un aumento del 200 % en imágenes de IA fotorrealistas de pornografía infantil», asegura Yaron Litwin.
El rápido avance de las herramientas de inteligencia artificial (IA) capaces de crear imágenes realistas ha provocado un auge de la pornografía infantil y la extorsión a niños y adolescentes, asegura un experto en seguridad digital en diálogo con el canal Fox News.
Yaron Litwin, director de ‘marketing’ de Canopy, una solución de IA enfocada en combatir el contenido digital dañino, explica que personas inescrupulosas aprovechan las fotografías publicada en redes sociales y, apoyándose en las tecnologías actuales de edición, crean material pornográfico.
Estas imágenes no solo son distribuidas por Internet, sino utilizadas para sacar provecho económico de quienes aparecen en ellas. «Alguien puede tomar una imagen normal de un adolescente vestido, editarla y convertirla en un desnudo, e intentar chantajear a ese adolescente», detalla Litwin.
Este experto asegura que producir este material ahora es «realmente fácil». Además, a medida que los algoritmos de los modelos de IA generativos procesan más y más de esas imágenes, «básicamente pueden mejorarse a sí mismos». «Hay un aumento del 200 % en imágenes de IA fotorrealistas de pornografía infantil», reveló.
Difícil de bloquear y filtrar
Un informe publicado este mes por el periódico The Washington Post señala que, en EE.UU., el contenido inquietantemente realista de explotación sexual infantil producido por IA podría socavar los sistemas de seguimiento de la Red para detener el llamado CSAM (difusión de materiales de abuso sexual infantil) porque están diseñados solo para detectar imágenes conocidas de abuso y no las recién generadas. Esto amenaza con obligar a las autoridades a dedicar más tiempo a determinar si son reales o falsas.
Los pedófilos ahora usan navegadores especiales para participar en foros y compartir guías paso a paso sobre cómo crear nuevos materiales ilícitos con facilidad, que luego se usan para crear identidades falsas en línea, conversar con niños y ganarse su confianza. Aunque los sistemas de IA de mayor difusión, como Stable Diffusion, MidJourney y DALL-E, tienen restricciones sobre a qué mensajes responderá el sistema, Litwin dice que estos delincuentes están comenzando a aprovechar los algoritmos de código abierto disponibles en la Internet oscura para eludir las barreras.
Litwin advierte que la situación plantea al mismo tiempo varios interrogantes de tipo legal en EE.UU. sobre lo que viola o no las leyes estatales y federales de protección infantil. Si bien este material es considerado ilegal, incluso si los infantes son generados por completo por IA, ningún caso de este tipo se ha juzgado en los tribunales, lo que demuestra la existencia de un vacío legal en cuanto a la legislación contra la pornografía infantil virtual.
«A medida que esto se vuelve tan abundante, se hace muy, muy difícil de bloquear, se hace muy difícil de filtrar […] Es muy difícil luchar contra eso. La legislación no está totalmente en su lugar todavía», añade.