{"id":700265,"date":"2025-01-16T21:35:01","date_gmt":"2025-01-17T01:35:01","guid":{"rendered":"https:\/\/unifranz.edu.bo\/?p=700265"},"modified":"2025-01-16T21:35:03","modified_gmt":"2025-01-17T01:35:03","slug":"deepfakes-una-nueva-arma-para-las-estafas-en-el-arsenal-de-los-ciberdelincuentes","status":"publish","type":"post","link":"https:\/\/unifranz.edu.bo\/pt\/blog\/deepfakes-una-nueva-arma-para-las-estafas-en-el-arsenal-de-los-ciberdelincuentes\/","title":{"rendered":"Deepfakes, una nueva arma para las estafas en el arsenal de los ciberdelincuentes"},"content":{"rendered":"<p>La historia de una mujer francesa que entreg\u00f3 800.000 euros a un estafador que se hac\u00eda pasar por el actor Brad Pitt ha dado la vuelta al mundo en los \u00faltimos d\u00edas, alertando de los peligros de las nuevas tecnolog\u00edas. El estafador, luego de contactar a la mujer, utiliz\u00f3 el deepfake, una tecnolog\u00eda que permite generar contenido convincente pero falso.&nbsp;&nbsp;<\/p>\n\n\n\n<p>\u201cLas&nbsp;<em>deepfakes<\/em> (acr\u00f3nimo del ingl\u00e9s formado por las palabras <em>fake<\/em>, falsificaci\u00f3n, y d<em>eep learning<\/em>, aprendizaje profundo) o manipulaciones de medios digitales utilizando inteligencia artificial para crear contenido falso y realista, plantean riesgos significativos. Por ejemplo, la manipulaci\u00f3n de im\u00e1genes y videos genera im\u00e1genes falsas que pueden parecer aut\u00e9nticas, puede influir en la percepci\u00f3n del p\u00fablico sobre una personalidad, afectando su imagen y credibilidad.\u201d, explica el abogado William Llanos, docente de la carrera de Derecho de la Universidad Franz Tamayo, Unifranz.<\/p>\n\n\n\n<p>El experto indica que la desinformaci\u00f3n se manifiesta a trav\u00e9s de discursos falsos, entrevistas inventadas o declaraciones ficticias, lo que puede resultar en una desinformaci\u00f3n masiva.&nbsp;<\/p>\n\n\n\n<p>Activistas y reguladores advierten que el desarrollo de programas de IA generativa podr\u00eda generar un flujo incontrolable de contenidos degradantes, como im\u00e1genes falsas (<em>deepfakes<\/em>) pornogr\u00e1ficas de mujeres famosas, afectando tambi\u00e9n a personas an\u00f3nimas.<\/p>\n\n\n\n<p>Un informe reciente de Unit 42, la divisi\u00f3n de investigaci\u00f3n de la empresa de ciberseguridad Palo Alto Networks, revela que ya existen bandas organizadas que crean campa\u00f1as de <em>deepfakes<\/em>.&nbsp;<\/p>\n\n\n\n<p>Estos grupos utilizan sin permiso la imagen de celebridades para promover esquemas de inversi\u00f3n falsos o se hacen pasar por ejecutivos para estafar a sus v\u00edctimas. Un ejemplo reciente es la plataforma fraudulenta Quantum AI, que us\u00f3 la imagen de figuras como Elon Musk, la presidenta italiana Georgia Meloni y el expresidente mexicano Andr\u00e9s Manuel L\u00f3pez Obrador para crear videos falsos que atrajeron a los usuarios.&nbsp;<\/p>\n\n\n\n<p>Seg\u00fan el informe, los atacantes suelen comenzar con un video leg\u00edtimo al que agregan audio generado por IA y utilizan tecnolog\u00eda de sincronizaci\u00f3n de labios para que el movimiento de los labios coincida con el audio.<\/p>\n\n\n\n<p>En el caso de los estafadores que utilizaron la imagen de Brad Pitt, estos contactaron a la mujer por medio de redes sociales y crearon una historia seg\u00fan la cual el actor se estaba enamorando de su v\u00edctima y necesitaba dinero para un procedimiento quir\u00fargico.<\/p>\n\n\n\n<p>La mujer, que recib\u00eda peri\u00f3dicamente im\u00e1genes manipuladas a trav\u00e9s de <em>deepfake <\/em>y otras t\u00e9cnicas m\u00e1s rudimentarias, realiz\u00f3 varios dep\u00f3sitos hasta llegar a la cifra de 800.000 euros antes de darse cuenta del enga\u00f1o.<\/p>\n\n\n\n<p>Otros casos similares, tambi\u00e9n utilizando la imagen de Pitt, se presentaron en Espa\u00f1a y otros pa\u00edses.<\/p>\n\n\n\n<p><strong>Una herramienta utilizada para el delito<\/strong><\/p>\n\n\n\n<p>\u201cSi una persona puede ser f\u00e1cilmente representada en un video haciendo algo que nunca hizo, \u00bfc\u00f3mo podemos confiar en la veracidad de lo que vemos en l\u00ednea? Esto puede tener un impacto significativo en nuestra percepci\u00f3n de la realidad y en nuestra confianza en los medios de comunicaci\u00f3n\u201d, puntualiza.<\/p>\n\n\n\n<p>El experto agrega que el desarrollo de programas de IA generativa podr\u00eda producir un flujo incontrolable de contenidos degradantes, seg\u00fan numerosos activistas y reguladores, como las im\u00e1genes falsas (<em>deepfakes<\/em>) pornogr\u00e1ficas de mujeres famosas, un fen\u00f3meno que tambi\u00e9n afecta a muchas personas an\u00f3nimas.<\/p>\n\n\n\n<p>Llanos indica que estas herramientas a menudo son utilizadas para reinventar antiguas formas de estafa que se aprovechan del factor humano.&nbsp;<\/p>\n\n\n\n<p>Los ataques contra individuos son un \u00e1rea que ver\u00e1 un crecimiento exponencial en estas campa\u00f1as, como en las estafas donde el delincuente se hace pasar por un familiar. La mayor\u00eda de las personas desconoce lo f\u00e1cil que es usar estas herramientas para replicar la voz de alguien. Los estafadores pueden utilizar una grabaci\u00f3n de una llamada para clonar la voz de una persona y contactar a sus seres queridos, o incluso extraerlas de sus redes sociales. Son las mismas estafas de antes, pero con un enfoque moderno.<\/p>\n\n\n\n<p><strong>Recomendaciones<\/strong><\/p>\n\n\n\n<p>Ante \u00e9ste y otros ataques que involucren contenido manipulado o <em>deepfake<\/em>, la plataforma de ciberseguridad ESET recomienda seguir los siguientes consejos:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Verificar la fuente<\/strong>: antes de creer o compartir contenido en l\u00ednea, es fundamental verificar la autenticidad de la fuente, investigando la reputaci\u00f3n y la credibilidad del sitio web, la cuenta de redes sociales o la aplicaci\u00f3n que est\u00e1 promoviendo el contenido.<\/li>\n\n\n\n<li><strong>Analizar el contexto<\/strong>: debemos examinar el contexto en el que se presenta el contenido. \u00bfCoincide con el tono y el estilo habitual de la persona o la organizaci\u00f3n que se muestra en el video? Si algo parece fuera de lugar o poco probable, es posible que se trate de un <em>deepfake<\/em>.<\/li>\n\n\n\n<li><strong>Comparar con fuentes confiables<\/strong>: ante dudas sobre la veracidad de un video o una noticia, es posible compararlos con fuentes confiables y verificadas como otros sitios, entrevistas o escritos para obtener una perspectiva m\u00e1s completa y precisa.<\/li>\n\n\n\n<li><strong>Estar atento a las inconsistencias:<\/strong> detalles como movimientos faciales irregulares, errores en la sincronizaci\u00f3n labial o anomal\u00edas en la calidad del audio y el video pueden ser se\u00f1ales de que el contenido ha sido manipulado digitalmente.<\/li>\n<\/ol>\n\n\n\n<p><strong>Mantenerse informado<\/strong>: estar al tanto de las \u00faltimas tendencias y desarrollos en tecnolog\u00edas de manipulaci\u00f3n de medios como los <em>deepfakes <\/em>es vital para identificar y evitar la desinformaci\u00f3n y el contenido fraudulento en l\u00ednea.<\/p>","protected":false},"excerpt":{"rendered":"<p>La historia de una mujer francesa que entreg\u00f3 800.000 euros a un estafador que se hac\u00eda pasar por el actor Brad Pitt ha dado la vuelta al mundo en los \u00faltimos d\u00edas, alertando de los peligros de las nuevas tecnolog\u00edas. El estafador, luego de contactar a la mujer, utiliz\u00f3 el deepfake, una tecnolog\u00eda que permite generar contenido convincente pero falso.\u00a0\u00a0<\/p>","protected":false},"author":45,"featured_media":700269,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[60,1886],"tags":[10628,6248,39,1422,242],"class_list":["post-700265","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog","category-derecho","tag-brad-pitt","tag-deepfake","tag-derecho","tag-innovacion-en-educacion","tag-unifranz"],"acf":[],"_links":{"self":[{"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/posts\/700265","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/users\/45"}],"replies":[{"embeddable":true,"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/comments?post=700265"}],"version-history":[{"count":1,"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/posts\/700265\/revisions"}],"predecessor-version":[{"id":700272,"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/posts\/700265\/revisions\/700272"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/media\/700269"}],"wp:attachment":[{"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/media?parent=700265"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/categories?post=700265"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/unifranz.edu.bo\/pt\/wp-json\/wp\/v2\/tags?post=700265"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}