domingo 8 junio 2025

Advierten sobre estafas con voces e imágenes clonadas por IA

Dólar Oficial
$1.200,00
-0,41%
Dólar Tarjeta
$1.560,00
-0,41%
Dólar Informal
$1.165,00
-0,85%
Dólar MEP
$1.190,78
-0,66%
Prom. Tasa P.F.
31,32%
-0,13%
UVA
1.496,77
=
Riesgo País
688
2,99%
Actualizado: 07:29 08/06 | downtack.com

El fiscal general Fernando Rivarola, jefe de la Unidad Fiscal Especializada en Cibercrimen y Ciberdelito del Ministerio Público Fiscal del Chubut, alertó sobre el uso creciente de la inteligencia artificial para clonar voces e imágenes con fines delictivos.

Aunque este tipo de estafas no es aún generalizado, destacó que los avances en tecnología permiten a los delincuentes crear engaños cada vez más sofisticados.

Rivarola indicó que, por el momento, los delincuentes enfrentan un alto costo en el uso de software especializado para realizar este tipo de fraudes. Sin embargo, el fenómeno ya comienza a ser detectado en algunos casos.

MIRÁ TAMBIÉN | Entró a una vivienda y abusó de una mujer: recibió pena condicional

El fiscal explicó que la inteligencia artificial generativa permite imitar voces e imágenes, como en el caso de artistas fallecidos o para producir nuevos productos artísticos con registros de personas. A pesar de ser costoso, este tipo de fraude tiene el potencial de ser más difícil de rastrear, lo que hace aún más peligroso el uso de estas tecnologías para estafas.

Las redes sociales se han convertido en el principal medio donde los estafadores obtienen las imágenes y voces de las personas. “Es fácil acceder a redes sociales y obtener material como voces e imágenes de los usuarios. Hoy en día, además de desconfiar de mensajes de texto, es importante también ser cautelosos con los audios y videos que recibimos”, afirmó Rivarola.

LEE TAMBIEN | Los atraparon con un arma sin papeles y un guanaco faenado

El fiscal recomendó prestar especial atención a la sincronización de los labios en videos y la calidad del sonido en audios. Las estafas más comunes son aquellas donde los delincuentes suplantan a familiares o amigos para pedir dinero. Aunque la inteligencia artificial aún no es utilizada masivamente en Argentina para estos fines, la creciente sofisticación de las estafas exige estar alerta.

Finalmente, Rivarola destacó que la inteligencia artificial generativa necesita varias grabaciones de una persona para poder clonar su voz e imagen. En este sentido, subrayó la importancia de reducir la información personal disponible en redes sociales para dificultar la tarea de los ciberdelincuentes.

Fuente: MPF de Chubut.

Foto ilustrativa.

Sansón Rosa retuvo el título latino con un contundente nocaut

El riojano cumplió con creces en su primera defensa del cinturón, dominando con solvencia desde el inicio hasta conectar la combinación que definió el pleito. Rosa reafirma su proyección como una de las grandes promesas del pugilismo argentino.

Grave atentado contra Miguel Uribe Turbay en Bogotá

La Fiscalía General de la Nación informó que el presunto autor del atentado es un menor de 15 años, quien fue detenido en el lugar con una pistola Glock de 9 milímetros.

Trump reprime protestas por redadas migratorias en Los Ángeles

El gobernador de California, Gavin Newsom, advirtió que el envío de tropas “solo aumentará las tensiones”. Por su parte, la alcaldesa de Los Ángeles, Karen Bass, reconoció el temor de los residentes, pero insistió en que la violencia “no será tolerada”.

Tras el escándalo, los chicos sancionados en Newell’s volverán a entrenar

La polémica surgió cuando se difundió una imagen en la que los niños, de apenas nueve años, posaban con el 10 del clásico rival. Según había explicado Astore, la decisión fue tomada "en consenso con los padres", aunque algunos de ellos luego desmintieron esta versión.

Compartir

spot_img

Popular