<?xml version="1.0" encoding="UTF-8"?><rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" version="2.0" xmlns:media="http://search.yahoo.com/mrss/"><channel><title><![CDATA[Infobae.com]]></title><link>https://www.infobae.com</link><atom:link href="https://www.infobae.com/arc/outboundfeeds/rss/tags_slug/deepfake/" rel="self" type="application/rss+xml"/><description><![CDATA[Infobae.com News Feed]]></description><lastBuildDate>Sat, 02 May 2026 17:04:49 +0000</lastBuildDate><language>es</language><ttl>1</ttl><sy:updatePeriod>hourly</sy:updatePeriod><sy:updateFrequency>1</sy:updateFrequency><item><title><![CDATA[“El derecho de autor no alcanza frente a la IA”, advirtió un especialista tras la decisión de Taylor Swift]]></title><link>https://www.infobae.com/tendencias/2026/04/30/el-derecho-de-autor-no-alcanza-frente-a-la-inteligencia-artificial-advirtio-un-especialista-tras-la-decision-de-taylor-swift/</link><guid isPermaLink="true">https://www.infobae.com/tendencias/2026/04/30/el-derecho-de-autor-no-alcanza-frente-a-la-inteligencia-artificial-advirtio-un-especialista-tras-la-decision-de-taylor-swift/</guid><dc:creator><![CDATA[Nicolás Sturtz]]></dc:creator><description><![CDATA[La cantante registró su imagen y su voz como marcas para enfrentar los riesgos de la inteligencia artificial, una medida que fue analizada por un abogado especialista en Infobae a la Tarde]]></description><pubDate>Thu, 30 Apr 2026 22:15:05 +0000</pubDate><content:encoded><![CDATA[<p>En <a href="https://www.infobae.com/tag/infobae-a-la-tarde/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/infobae-a-la-tarde/"><b>Infobae a la Tarde</b></a>, el abogado especialista en derecho creativo, <b>Ezequiel Canle Santamaría</b>, analizó el caso de <a href="https://www.infobae.com/tag/taylor-swift/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/taylor-swift/"><b>Taylor Swift</b></a> y su decisión de <b>registrar su imagen y su voz como marcas comerciales para protegerse del uso de inteligencia artificial</b>.</p><p>Durante una emisión de Infobae a la Tarde, en diálogo con el equipo integrado por Manu Jove, Maia Jastreblansky, Paula Guardia Bourdin y Tomás Trapé, Canle Santamaría explicó que <b>la medida de Swift marca un precedente único en la industria musical </b>y plantea nuevos desafíos para el derecho creativo.</p><h2>Taylor Swift y la protección legal frente a la inteligencia artificial</h2><p><b>“La propuesta de Taylor Swift es novedosa porque nunca antes se había usado ese tipo de registros de marcas sonoras junto con registros de imagen para blindar como marca comercial la identidad de un artista”</b>, detalló Paula Guardia Bourdin sobre el trasfondo del caso. Añadió que la cantante busca evitar que “se use en contenidos que sean muy similares a lo que ella es en realidad” mediante imágenes digitales y deepfakes.</p><p>Canle Santamaría sostuvo: <b>“El derecho de autor parecería no ser suficiente contra los deepfakes o contra el avance de la inteligencia artificial al copiar o plagiar partes o todo de las obras que crean los artistas”</b>. Para el especialista, el registro de la voz e imagen como marcas otorga una herramienta más poderosa: “La marca tiene que tener una cuestión muy importante que es la distintividad. O sea, no puede provocar confusión en el consumidor”.</p><img src="https://www.infobae.com/resizer/v2/WZOXZORHVRE2HBAZU2Z5SRIT64.JPG?auth=7be5cb276d79402a029c69c458029399d0e262aac299d8bbcf5a5e6947bd0f5f&smart=true&width=5500&height=3667" alt="Taylor Swift registra su voz e imagen como marcas para enfrentar riesgos de la inteligencia artificial (REUTERS/Jennifer Gauthier)" height="3667" width="5500"/><p>El abogado también subrayó que “tanto la normativa norteamericana como la argentina, y la de muchos países del mundo, permiten hacer esto”, señalando que el gran salto es la utilización de registros de marca tradicionalmente ligados a corporaciones para proteger personas físicas.</p><h2>Cómo funciona el registro de marcas sonoras y visuales en artistas</h2><p>“La marca sonora puede ser un jingle o un sonido por el cual distinguimos a una empresa, como el ‘tutum’ de Netflix o el rugido del león de la Metro Goldwyn Mayer”, ejemplificó Canle Santamaría, resaltando que ahora ese mecanismo lo adopta una figura como Taylor Swift.</p><p>El especialista aclaró que esta estrategia no es exclusiva de Estados Unidos. <b>“Esto lo hace Taylor Swift, pero también lo pueden hacer nuestros músicos y músicas argentinos”</b>, expuso Canle Santamaría, aunque reconoció que aún no existen antecedentes judicializados en la región donde un artista logre blindar su voz o su imagen como marca frente a la IA.</p><img src="https://www.infobae.com/resizer/v2/WEEJWBMWP5G3ZOHGFAK72T27VY.JPG?auth=bed2555be7b625367cb31b456bb63f8acbecd2f9adaae4e90f2bf7ca41ee0b03&smart=true&width=5000&height=2813" alt="El registro marcario de la voz e imagen permite mayor protección legal ante el uso no autorizado en productos digitales (REUTERS/Mark Blinch)" height="2813" width="5000"/><p><a href="https://www.infobae.com/entretenimiento/2026/01/16/matthew-mcconaughey-registro-su-imagen-y-voz-para-resguardar-su-identidad-ante-el-avance-de-la-ia/" target="_blank" rel="noreferrer" title="https://www.infobae.com/entretenimiento/2026/01/16/matthew-mcconaughey-registro-su-imagen-y-voz-para-resguardar-su-identidad-ante-el-avance-de-la-ia/"><b>Matthew McConaughey</b></a> fue citado como el primer actor en intentar proteger su voz e imagen del uso indebido de la inteligencia artificial a través del registro marcario.</p><h2>Los desafíos legales y éticos frente a los deepfakes y la creatividad digital</h2><p>Consultado sobre los alcances de esta protección, Canle Santamaría respondió: “Si vos usás una marca, tenés que pedir permiso para usar la marca de otra persona. En principio, no podés usar lo que le pertenece a otro”.</p><p>En referencia a los memes y el uso no comercial, el abogado aclaró: <b>“El derecho, como todo, tiene un límite, es relativo. No podés ir al extremo de ridiculizar al otro y provocarle un daño a su imagen”</b>.</p><img src="https://www.infobae.com/resizer/v2/6WM4V5NSXZG2NIRX266Z47YPYU.jpg?auth=b12a9a741bc9d821f53ff3e2bc8b6e0a45c619fed21fe505f17ff0a16fc8da07&smart=true&width=3000&height=2000" alt="La decisión de Taylor Swift marca un precedente en la industria musical ante el avance de la inteligencia artificial y los deepfakes (Foto Evan Agostini/Invision/AP, archivo)" height="2000" width="3000"/><p>Canle Santamaría comparó el fenómeno de la inteligencia artificial con otros cambios tecnológicos históricos: <b>“Los modos de consumo y de producción cultural han cambiado siempre. Esta es una nueva ola, va mucho más rápido, pero no significa la destrucción o la muerte de las artes”</b>. Citó el caso de Dinamarca, donde se intentó asimilar la imagen y la voz al derecho de autor para fortalecer los reclamos legales ante la IA.</p><p>Sobre la legislación argentina, fue contundente:<b> “En mi humilde opinión, no estamos preparados. Tenemos una norma que es del año 1933… Imagínense cuando salió, no existía el software y hoy se lo asimila. Pero no hay nada vinculado a inteligencia artificial, blockchain o deepfakes”</b>.</p><p>Finalmente, se planteó el debate sobre el futuro de la industria del espectáculo frente a la IA y la creación de réplicas digitales de artistas fallecidos: <b>“Hay que ver qué implican esos contratos, cuál es la ganancia y qué se cede. Por ahí a veces es más lo que das que lo que recibís”</b>.</p><p>--</p><p><b>Infobae </b>te acompaña cada día en YouTube con entrevistas, análisis y la información más destacada, en un formato cercano y dinámico.</p><p>• De 7 a 9: <b>Infobae al Amanecer</b>: Nacho Giron, Luciana Rubinska y Belén Escobar.</p><p>• De 9 a 12: <b>Infobae a las Nueve</b>: Gonzalo Sánchez, Tatiana Schapiro, Ramón Indart y Cecilia Boufflet.</p><p>• De 12 a 15: <b>Infobae al Mediodia</b>: Maru Duffard, Andrei Serbin Pont, Jimena Grandinetti, Fede Mayol y Facundo Kablan.</p><p>• De 15 a 18: <b>Infobae a la Tarde</b>: Manu Jove, Maia Jastreblansky y Paula Guardia Bourdin; rotan en la semana Marcos Shaw, Lara López Calvo y Tomás Trapé</p><p>• De 18 a 21: <b>Infobae al Regreso</b>: Gonzalo Aziz, Diego Iglesias, Malena de los Ríos y Matías Barbería; rotan en la semana Gustavo Lazzari, Martín Tetaz y Mica Mendelevich</p><p>Seguinos en nuestro canal de <b>YouTube </b>@infobae.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/WZOXZORHVRE2HBAZU2Z5SRIT64.JPG?auth=7be5cb276d79402a029c69c458029399d0e262aac299d8bbcf5a5e6947bd0f5f&amp;smart=true&amp;width=5500&amp;height=3667" type="image/jpeg" height="3667" width="5500"><media:description type="plain"><![CDATA[La cantante registró su imagen y su voz como marcas para enfrentar los riesgos de la inteligencia artificial, una medida que fue analizada por un abogado especialista en Infobae a la Tarde]]></media:description><media:credit role="author" scheme="urn:ebu">REUTERS</media:credit></media:content></item><item><title><![CDATA[Taylor Swift encuentra una solución para que no creen imágenes de IA con su rostro]]></title><link>https://www.infobae.com/tecno/2026/04/30/taylor-swift-encuentra-una-solucion-para-que-no-creen-imagenes-de-ia-con-su-rostro/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2026/04/30/taylor-swift-encuentra-una-solucion-para-que-no-creen-imagenes-de-ia-con-su-rostro/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[La artista protegio una de sus frases más reconocidas: “Hey, it’s Taylor Swift”]]></description><pubDate>Thu, 30 Apr 2026 17:36:13 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/OI2MIFTXSFGL3E6CSJ6KCI2J5Q.JPG?auth=c03405b7b6cd14a4ad8a09a31cf0d3b0e624c44320839feea8e70d8c62ddac62&smart=true&width=800&height=532" alt="Taylor Swift recurre a derechos de autor y marcas para frenar el uso de inteligencia artificial no autorizado en su imagen y voz.(REUTERS/Daniel Cole/Foto de archivo)" height="532" width="800"/><p><b>El avance de la </b><a href="https://www.infobae.com/tecno/2026/04/30/las-busquedas-con-ia-llegan-a-youtube-como-aprovechar-esta-nueva-funcion/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/04/30/las-busquedas-con-ia-llegan-a-youtube-como-aprovechar-esta-nueva-funcion/"><b>inteligencia artificial</b></a><b> ha generado nuevas preocupaciones para figuras públicas como </b><a href="https://www.infobae.com/tecno/2026/03/25/la-contundente-advertencia-de-mark-zuckerberg-a-su-hija-no-puedes-ser-taylor-swift/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/03/25/la-contundente-advertencia-de-mark-zuckerberg-a-su-hija-no-puedes-ser-taylor-swift/"><b>Taylor Swift</b></a>, quien ha decidido tomar medidas legales para protegerse frente a la proliferación de deepfakes y contenidos generados sin su consentimiento. </p><p>La cantante y compositora estadounidense ha presentado solicitudes de derechos de autor y registros de marca sobre elementos clave de su identidad, <b>buscando impedir que su imagen y voz sean reproducidas o manipuladas por sistemas de IA.</b></p><h2>Qué hixo Taylor Swift para blindar la voz y la imagen</h2><p>Bajo la firma TAS Rights Management, <b>Taylor Swift presentó tres solicitudes ante la Oficina de Patentes y Marcas de Estados Unidos.</b> Dos de estas solicitudes tienen como objetivo resguardar su voz, específicamente frases que la cantante suele emplear al presentarse en público o en materiales promocionales. </p><p><b>Las frases incluidas son: “Hey, it’s Taylor Swift” y “Hey, it’s Taylor”.</b> Al registrar estas expresiones, la artista y su equipo legal adquieren el derecho de impugnar cualquier contenido, especialmente el generado por inteligencia artificial, que utilice esas frases sin su consentimiento explícito.</p><img src="https://www.infobae.com/resizer/v2/XVYQRGLZ6FDADB3ACK3C5PFYQM.JPG?auth=84e7e417fea1d4363ef19da062a4c2ddc978627be1aa55947faf7b2fe9a76838&smart=true&width=5500&height=3667" alt="El registro de marcas abarca imitaciones ‘confusamente similares’ a la voz auténtica de Taylor Swift, extendiendo así el alcance de la protección. (REUTERS/Toby Melville/File Photo)" height="3667" width="5500"/><p>Esta protección no se limita a grabaciones originales, sino que abarca también el uso de imitaciones que resulten “confusamente similares” a la voz auténtica de Taylor Swift.</p><p><b>El tercer registro presentado por Taylor Swift y su equipo corresponde a una de las imágenes más reconocibles de la artista.</b> Se trata de una fotografía tomada durante su gira ‘The Eras Tour’, donde aparece sosteniendo una guitarra rosa con una correa negra, vestida con un body iridiscente multicolor y botas plateadas. </p><p>Este atuendo es uno de los más asociados a su figura pública. El objetivo de registrar legalmente esta imagen es impedir que terceros puedan manipularla o recrearla digitalmente, especialmente mediante técnicas de inteligencia artificial.</p><p>En Estados Unidos, las celebridades ya cuentan con ciertas protecciones legales sobre el uso comercial de su identidad visual. Sin embargo, <b>el registro de esta imagen específica otorga a Taylor Swift y su equipo la posibilidad de actuar con mayor rapidez y eficacia frente a cualquier uso no autorizado</b>, especialmente en un contexto donde las herramientas tecnológicas permiten replicar o modificar fotografías con facilidad.</p><img src="https://www.infobae.com/resizer/v2/DFH3VD4FSNC43CCUZDMNVI2GTQ.jpg?auth=cf519386f0967e9bdb379bbde64606ac41e591a846b3a93ae68503208c8ac0ed&smart=true&width=1920&height=1280" alt="Taylor Swift innova al registrar legalmente su voz hablada y elementos visuales, cerrando vacíos legales no cubiertos por derechos de autor tradicionales. (Ricardo Rubio - Europa Press)
" height="1280" width="1920"/><h2>Un nuevo uso de la ley de marcas frente a la IA</h2><p>El caso de Taylor Swift representa un avance en la utilización de la legislación de marcas para cubrir vacíos legales que la inteligencia artificial ha puesto en evidencia. Según el abogado especializado en propiedad intelectual Josh Gerben, <b>estos registros constituyen una capa adicional de protección frente a los riesgos derivados de la IA. </b></p><p>Si bien las leyes de derechos de imagen permiten a los famosos controlar ciertos aspectos del uso de su imagen y voz,<b> el registro de marcas puede proporcionar mecanismos más ágiles y específicos para la defensa legal.</b></p><p>La estrategia de registrar la voz hablada, y no solo grabaciones musicales, es una innovación que responde a la capacidad de la IA para crear audios completamente nuevos imitando voces humanas. En el pasado, <b>los artistas confiaban en las leyes de derechos de autor para proteger sus grabaciones originales. </b></p><p>Sin embargo, la IA puede generar fragmentos de voz sintética sin copiar una grabación existente, <b>lo que deja un espacio legal que los registros de marca buscan cubrir.</b></p><img src="https://www.infobae.com/resizer/v2/CFOQYL6N6JFFPO44TIFUAQ5DJM.jpg?auth=742d4d3c4697f732c40e672aa5b14b9d50868c1bf88cb9b0717f98fc1baf9a51&smart=true&width=1920&height=1076" alt="El avance de la IA evidencia la necesidad de nuevas estrategias legales para proteger la identidad de los famosos ante la manipulación digital creciente. (Imagen Ilustrativa Infobae)" height="1076" width="1920"/><p>La imagen registrada por<b> </b>Taylor Swift cumple una función similar. Al proteger no solo su rostro, sino también elementos distintivos de su vestimenta y postura, el equipo legal de la cantante refuerza su capacidad para <b>reclamar ante la aparición de imágenes manipuladas o generadas artificialmente que evoquen su presencia de manera inconfundible.</b></p><p>La preocupación de Taylor Swift no es aislada. Figuras como Matthew McConaughey también han optado por registrar frases y elementos relacionados con su identidad a fin de limitar el uso sin consentimiento en contenidos generados por IA. Recientemente,<b> el actor estadounidense logró la aprobación de ocho solicitudes de registro para frases, imágenes y vídeos</b>, incluyendo su célebre “Alright, alright, alright” de la película “Dazed and Confused”. </p><p>Estos movimientos buscan crear límites claros sobre la propiedad y<b> el consentimiento en un entorno digital donde la frontera entre lo real </b>y lo artificial se vuelve cada vez más difusa.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/OI2MIFTXSFGL3E6CSJ6KCI2J5Q.JPG?auth=c03405b7b6cd14a4ad8a09a31cf0d3b0e624c44320839feea8e70d8c62ddac62&amp;smart=true&amp;width=800&amp;height=532" type="image/jpeg" height="532" width="800"><media:description type="plain"><![CDATA[Taylor Swift recurre a derechos de autor y marcas para frenar el uso de inteligencia artificial no autorizado en su imagen y voz.(REUTERS/Daniel Cole/Foto de archivo)]]></media:description><media:credit role="author" scheme="urn:ebu">Reuters</media:credit></media:content></item><item><title><![CDATA[Ahora Zoom verificará si eres humano o un impostor generado por IA]]></title><link>https://www.infobae.com/tecno/2026/04/18/ahora-zoom-verificara-si-eres-humano-o-un-impostor-generado-por-ia/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2026/04/18/ahora-zoom-verificara-si-eres-humano-o-un-impostor-generado-por-ia/</guid><dc:creator><![CDATA[Renzo Gonzales]]></dc:creator><description><![CDATA[La plataforma anunció una alianza con World para verificar que los participantes en videollamadas sean personas reales y no deepfakes]]></description><pubDate>Sat, 18 Apr 2026 01:46:12 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/4SBPNAJ2TRGELAWNQGUHPLQLV4.png?auth=ace00ce15502eb3ebf599ee8f2b91b8409874d125253d77cd2f780431c0e355a&smart=true&width=1920&height=1080" alt="La verificación utiliza un método triple: imagen registrada, escaneo facial en tiempo real y análisis de video en vivo. (Zoom)" height="1080" width="1920"/><p>La proliferación de fraudes basados en <a href="https://www.infobae.com/tecno/2026/04/17/asi-actuan-las-empresas-para-despedir-empleados-a-causa-de-la-ia/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/04/17/asi-actuan-las-empresas-para-despedir-empleados-a-causa-de-la-ia/"><b>inteligencia artificial</b> </a>ha elevado la preocupación de empresas y usuarios en todo el mundo. En respuesta, <a href="https://www.infobae.com/tecno/2024/04/21/zoom-mejor-gracias-a-la-ia-resumenes-extraccion-de-tareas-y-mas-nuevas-funciones/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2024/04/21/zoom-mejor-gracias-a-la-ia-resumenes-extraccion-de-tareas-y-mas-nuevas-funciones/"><b>Zoom</b></a>, la plataforma de videollamadas, anunció una alianza con <b>World</b>, la compañía de verificación de identidad humana fundada por <b>Sam Altman</b>, para garantizar que los participantes en sus reuniones sean realmente personas y no imitadores digitales creados por IA.</p><h2>El auge de los deepfakes y su impacto financiero</h2><p>El uso de <b>deepfakes en fraudes corporativos</b> ha crecido de forma alarmante. Uno de los casos más notorios ocurrió a principios de 2024, cuando la empresa de ingeniería <b>Arup</b> perdió <b>25 millones de dólares</b> tras una videollamada en la que el empleado, convencido de hablar con altos directivos y colegas, terminó autorizando transferencias bancarias a impostores digitales generados por IA. Situaciones similares se repitieron, como el ataque a una multinacional en <b>Singapur en 2025</b>.</p><p>Las cifras ilustran el alcance del problema: solo en el primer trimestre del año pasado, las <b>pérdidas por fraudes con deepfake superaron los 200 millones de dólares</b>. El costo promedio por incidente corporativo asciende ya a más de <b>500.000 dólares</b>, según informes del sector de ciberseguridad. Si bien el fraude con videollamadas aún no afecta de forma masiva a usuarios individuales, representa un riesgo serio para empresas que realizan transacciones sensibles mediante videoconferencias.</p><img src="https://www.infobae.com/resizer/v2/OQCL5DPB2JBBFICWC3NBFBKTWQ.png?auth=4900e5154662b63081b2a3341ea1f64f43330facee910589e39b7a3707c871fa&smart=true&width=1408&height=768" alt="El fraude con deepfakes provocó pérdidas por más de 200 millones de dólares en el primer trimestre del año pasado. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><h2>Cómo funciona la verificación humana en Zoom</h2><p>Hasta ahora, los mecanismos para detectar deepfakes en reuniones virtuales se centraban en analizar fotogramas de vídeo en busca de señales de manipulación digital. Sin embargo, la mejora constante de los <b>modelos de generación de video con IA</b> ha vuelto cada vez menos fiables estos métodos. Para enfrentar esta limitación, <b>World</b> y <b>Zoom</b> han implementado una <b>verificación más robusta y difícil de vulnerar</b>.</p><p>La tecnología <b>World ID Deep Face</b> emplea un método triple de autenticación. Primero, compara una <b>imagen firmada</b> tomada durante el registro del usuario mediante el dispositivo <b>Orb de World</b>. Luego, realiza un <b>escaneo facial en tiempo real</b> desde el dispositivo del usuario. Por último, analiza un <b>fotograma de video en vivo</b> visible para los demás participantes de la reunión. Solo cuando los tres elementos coinciden, World otorga la <b>insignia de “Humano verificado”</b> junto al nombre del participante.</p><p>La plataforma permitirá que los anfitriones habiliten una <b>“sala de espera Deep Face”</b> para que todos los asistentes verifiquen su identidad antes de ingresar a la reunión. Además, durante la videollamada, cualquier participante podrá solicitar la <b>verificación de identidad</b> de otro usuario en tiempo real.</p><img src="https://www.infobae.com/resizer/v2/XFIC536HXNBHDM62T7OXBHY6HI.png?auth=704d22844e1ecad72ced6da921037fb13a76fa52ffb848ae41ac38a48a794237&smart=true&width=1408&height=768" alt="Los anfitriones podrán activar una sala de espera Deep Face para validar la identidad de todos los asistentes antes de ingresar. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><h2>Un paso hacia la confianza digital en entornos corporativos</h2><p>“Esta integración forma parte del enfoque de ecosistema abierto de Zoom, que ofrece a los clientes más maneras de generar confianza en sus flujos de trabajo en función de lo que más importa para su caso de uso”, indicó <b>Travis Isaman</b>, vocero de la empresa.</p><p>El objetivo es reducir el margen de maniobra de los <b>impostores digitales</b> y ofrecer a las empresas garantías adicionales en reuniones críticas, especialmente en sectores que manejan <b>información confidencial</b> o grandes volúmenes de <b>transacciones</b>.</p><p>La iniciativa se inserta en una tendencia creciente de <b>verificación digital</b>. <b>World</b>, la empresa de Sam Altman, ha sellado acuerdos con plataformas como <b>Tinder</b> y <b>Visa</b> para certificar que los usuarios sean personas reales y no programas automatizados de IA. El mes pasado, World lanzó una herramienta para <b>verificar la identidad humana</b> detrás de agentes de compras con IA en puntos de venta, ampliando el alcance de estas tecnologías en diversas industrias.</p><img src="https://www.infobae.com/resizer/v2/EPUUW4WU4VARPCBA43UPHMCU2M.png?auth=d074f4e74e5c06e9ec86d52b2375ab312c4c9ca18529ae70012e2c3a9b7f1071&smart=true&width=1408&height=768" alt="La función busca aumentar la confianza y la seguridad en reuniones corporativas y transacciones sensibles. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p>La implementación de <b>mecanismos de verificación robustos</b> en plataformas como Zoom responde a una amenaza real y creciente. La lucha contra el <b>fraude digital mediante deepfakes</b> requiere una combinación de innovación tecnológica y colaboración entre empresas. El avance de estas soluciones refuerza la <b>confianza en los entornos digitales</b> y prepara el terreno para una nueva etapa en la seguridad de las interacciones virtuales.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/4SBPNAJ2TRGELAWNQGUHPLQLV4.png?auth=ace00ce15502eb3ebf599ee8f2b91b8409874d125253d77cd2f780431c0e355a&amp;smart=true&amp;width=1920&amp;height=1080" type="image/png" height="1080" width="1920"><media:description type="plain"><![CDATA[La verificación utiliza un método triple: imagen registrada, escaneo facial en tiempo real y análisis de video en vivo. (Zoom)]]></media:description></media:content></item><item><title><![CDATA[La ‘influencer’ relató cómo su imagen fue robada para crear contenido para adultos: “Con mis publicaciones de Instagram”]]></title><link>https://www.infobae.com/colombia/2026/04/07/la-influencer-relato-como-su-imagen-fue-robada-para-crear-contenido-para-adultos-con-mis-publicaciones-de-instagram/</link><guid isPermaLink="true">https://www.infobae.com/colombia/2026/04/07/la-influencer-relato-como-su-imagen-fue-robada-para-crear-contenido-para-adultos-con-mis-publicaciones-de-instagram/</guid><dc:creator><![CDATA[Angie Julieth Cicua Caballero]]></dc:creator><description><![CDATA[En la denuncia narró cómo fue manipulada por medio de Instagram y una supuesta seguidora que fingió ayudarla ]]></description><pubDate>Tue, 07 Apr 2026 13:22:48 +0000</pubDate><content:encoded><![CDATA[<p>La influencer Ana María, conocida como @anapapitas_, expuso en TikTok la situación de acoso que enfrenta por un caso de robo de identidad que se originó hace más de cinco años. </p><p>En su relato, Ana María explicó: <b>“Llevo más de cinco años huyendo, sintiendo miedo, sintiendo acoso, escondiéndome, cambiando de cuentas.</b> Y hoy decidí no, no hacerlo más, no esconderme más, no huir más, porque me cansé de sentir miedo, me cansé de sentir acoso, me cansé de seguir así”.</p><p><i><b>Ahora puede seguirnos en</b></i><a href="https://href.li/?https://www.facebook.com/infobaecolombia" target="_blank" rel=""><i><b> Facebook</b></i></a><i><b> y en nuestro</b></i><a href="https://href.li/?https://whatsapp.com/channel/0029Va4oNEALikgEL4Y8mb2K" target="_blank" rel=""><i><b> WhatsApp Channel</b></i></a></p><p>La joven relató cómo fue contactada por Instagram y le aseguraron que había contenido suyo en páginas para adultos, allí engañada por alguien que se hizo pasar por seguidora y que, tras ganarse su confianza, le pidió fotos y videos. </p><p><b>Según sus palabras, el objetivo era, mediante las fotos, confirmar que la persona de los videos no era ella</b>, pero en realidad se trataba de una trampa: “Esa persona utilizó todo mi miedo para obtener ese material y lo logró”, confesó Ana María, visiblemente afectada.</p><img src="https://www.infobae.com/resizer/v2/RLKWDAWCHNA5VGMI2JTO2F7FU4.png?auth=ecd6abc0cd1b56ddae9c462e91585cb68ef79d7c2c894dcad5c7e5812f2370e9&smart=true&width=1408&height=768" alt="En su mensaje, pidió a la audiencia no caer en engaños y bloquear cualquier intento de extorsión similar - (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p>Ana María también mencionó el apoyo de su madre desde el inicio: “Desde que mi mamá se enteró, me creyó y me ha apoyado en todo el proceso”. Sin embargo, reconoció que no todos le creen y que muchas personas la acusan injustamente: “Dicen que seguramente fue un ex o seguramente yo vendo ese contenido, pero no. Aquí estoy dando la cara”.</p><p>La influencer afirmó tener una denuncia formal en la fiscalía y pidió a sus seguidores que denuncien cualquier contenido falso. “<b>No vendo contenido, nunca lo he hecho. Y lo que circula ahorita es fruto de este engaño, de este delito”</b>. Ana María finalizó su denuncia pidiendo apoyo y advirtiendo sobre este tipo de estafas: “Si ven algo mío por ahí, por favor, denuncien. No soy yo”.</p><p>Ana María relató por qué decidió hablar: “Traté durante muchos años evitar que las personas cercanas, amigos, seguidores, se enteraran, pero se me salió de las manos porque estas personas crean cuentas constantemente con diferentes nombres, diferentes páginas, las comparten con personas cercanas a mí. Ya no pude hacer más porque no se enteraran, así que ya no me voy a permitir más sentir vergüenza o sentirme mal o afectarme por esto”.</p><img src="https://www.infobae.com/resizer/v2/XFIC536HXNBHDM62T7OXBHY6HI.png?auth=704d22844e1ecad72ced6da921037fb13a76fa52ffb848ae41ac38a48a794237&smart=true&width=1408&height=768" alt="La inteligencia artificial permite generar deepfakes en los que la voz y el rostro de la víctima parecen auténticos, haciendo difícil a detección del fraude - crédito (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p><b>En términos técnicos, Ana María fue víctima de un deepfake que es una técnica digital que utiliza inteligencia artificial para crear videos, audios o imágenes en los que el rostro, la voz o los gestos de una persona son alterados</b> o reemplazados, de modo que parece que realiza o dice cosas que nunca ocurrieron. Este procedimiento se basa en algoritmos de aprendizaje automático que procesan grandes cantidades de datos visuales y sonoros, logrando resultados difíciles de distinguir de la realidad.</p><p>Por otra parte, en Colombia la Ley 2502 de 2025 introdujo sanciones penales para quienes manipulen la identidad de otros mediante inteligencia artificial, modificando el artículo 296 del Código Penal. La norma determina que la suplantación con IA constituye falsedad personal y, según el texto legal, “la multa se aumentará hasta en la tercera parte, siempre que la conducta no constituya otro delito”.</p><p>La legislación colombiana exige a la Fiscalía General de la Nación el seguimiento detallado de estos casos, así como la actualización de metodologías para rastrear el impacto de los fraudes digitales. <b>Los datos biométricos, como el rostro y la voz, están protegidos tanto por la Ley 23 de 1982 como por normas de habeas data, especialmente cuando se emplean para suplantaciones o estafas.</b></p><img src="https://www.infobae.com/resizer/v2/RH5IYHG6EVEANBR6LTTWDFO65U.png?auth=51f54ac09b81a8f2484daebb63874f20ec9b399c106e86ae10fa0f0009e72f2e&smart=true&width=1408&height=768" alt="Expertos en ciberseguridad recomiendan mantener los perfiles sociales privados y emplear claves de verificación para evitar fraudes relacionados con deepfakes - crédito (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p>Incluso en situaciones sin lucro directo, la creación de contenido falso puede acarrear sanciones civiles. El derecho a la imagen está amparado por la Constitución y el Código Civil, lo que impide el uso no autorizado de la imagen para burlas, caricaturas o bromas.</p><p>Para prevenir estos delitos, <b>los especialistas aconsejan desconfiar de solicitudes urgentes por videollamada, crear ‘palabras clave’ de seguridad y denunciar cualquier suplantación ante la Fiscalía o la Policía de delitos cibernéticos</b>. Es esencial conservar todas las pruebas y limitar el acceso a perfiles digitales, ajustando la privacidad para proteger la identidad propia.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/6SW4P27D25ACDGXMKJKCTHZG4U.jpg?auth=dcd9d200d641afe50be042c59253d2c9438a8f5c2c4929286f1f870c3ca6c756&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:description type="plain"><![CDATA[La influencer Ana María denunció que su imagen fue robada y usada para generar contenido para adultos sin su autorización - crédito anapapitas_ / TikTok - Visuales IA Infobae]]></media:description></media:content></item><item><title><![CDATA[Aumentan las estafas con voces de familaires y amigos: el desafío de verificar identidades frente al avance de la inteligencia artificial]]></title><link>https://www.infobae.com/tecno/2026/04/01/suben-las-estafas-con-voces-de-familaires-y-amigos-el-desafio-de-verificar-identidades-frente-al-avance-de-la-inteligencia-artificial/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2026/04/01/suben-las-estafas-con-voces-de-familaires-y-amigos-el-desafio-de-verificar-identidades-frente-al-avance-de-la-inteligencia-artificial/</guid><dc:creator><![CDATA[Renzo Gonzales]]></dc:creator><description><![CDATA[La IA generativa pone en jaque la autenticidad del contenido digital y multiplica los riesgos de fraude y suplantación de identidad]]></description><pubDate>Wed, 01 Apr 2026 21:40:31 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/EPUUW4WU4VARPCBA43UPHMCU2M.png?auth=d074f4e74e5c06e9ec86d52b2375ab312c4c9ca18529ae70012e2c3a9b7f1071&smart=true&width=1408&height=768" alt="La inteligencia artificial permite crear videos y audios falsos que desafían los métodos tradicionales de verificación digital. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p>Durante más de dos décadas, la confianza en lo que se veía y escuchaba en el <a href="https://www.infobae.com/tecno/2026/03/31/enviar-correos-al-destinatario-equivocado-el-fallo-humano-que-aprovechan-los-ciberdelincuentes/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/03/31/enviar-correos-al-destinatario-equivocado-el-fallo-humano-que-aprovechan-los-ciberdelincuentes/"><b>entorno digital </b></a>se mantuvo como una regla tácita. El video representaba evidencia, la voz era sinónimo de identidad y una imagen bastaba como prueba. El desarrollo de la <a href="https://www.infobae.com/tecno/2026/04/01/la-ia-aprendio-a-mentirte-porque-tu-prefieres-que-lo-haga/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/04/01/la-ia-aprendio-a-mentirte-porque-tu-prefieres-que-lo-haga/"><b>inteligencia artificial</b></a> (IA) generativa ha modificado ese paradigma.</p><p>Hoy, la capacidad de crear <b>audios, imágenes y videos falsos de alta calidad</b> se encuentra al alcance del público general y no solo de especialistas, lo que ha provocado una transformación profunda en la naturaleza del fraude digital.</p><p>La llegada de herramientas de IA generativa de bajo costo y fácil acceso ha permitido que la creación de deepfakes deje de ser un fenómeno marginal o experimental. Ahora, estas tecnologías se han instalado como un recurso cotidiano para quienes buscan perpetrar engaños sofisticados, explica Marcelo Roitman, Experis Managing Director y Vicepresidente de ManpowerGroup.</p><p><b>La IA ha reducido de manera considerable las barreras de entrada</b> para producir falsificaciones convincentes. El fenómeno ya no requiere inversiones elevadas ni conocimientos técnicos avanzados, lo que ha derivado en la proliferación de servicios de suplantación de identidad dentro de mercados ilícitos cada vez más organizados.</p><img src="https://www.infobae.com/resizer/v2/5RFYQFQ7URHFBI65JUBTMHIBM4.png?auth=fc7e6d23db844506f08c0d26e5b4b236ac478bd96f7bf544770f617cb05700a7&smart=true&width=2752&height=1536" alt="En Argentina, la digitalización de servicios financieros y comerciales amplifica el impacto de las nuevas modalidades de fraude. (Imagen Ilustrativa Infobae)" height="1536" width="2752"/><p>Un caso reciente expone la magnitud de este fenómeno. En 2025, una transmisión falsa en YouTube utilizó un avatar generado por inteligencia artificial para suplantar a <b>Jensen Huang, CEO de Nvidia</b>, durante un supuesto evento vinculado a la GPU Technology Conference.</p><p>El video invitaba a los espectadores a invertir en criptomonedas y logró alcanzar a <b>miles de usuarios</b>, presentando una imagen creíble y profesional. Esta situación ilustra cómo el contenido manipulado puede circular masivamente, generando riesgos inéditos para la autenticidad digital.</p><h2>El impacto en Argentina: una redefinición del riesgo digital</h2><p>En <b>Argentina</b>, la digitalización avanzó de manera acelerada en sectores como servicios financieros, comercio electrónico y comunicaciones. El contexto local muestra un impacto profundo de esta tendencia global.</p><p><b>La proliferación de deepfakes y contenidos manipulados no solo incrementó la cantidad de estafas, sino que también modificó la percepción y gestión del riesgo digital</b> en la región. En los últimos meses, se han reportado nuevas modalidades de fraude que emplean audios generados por IA o mensajes privados para solicitar transferencias bancarias urgentes, movimientos en cuentas o información sensible.</p><img src="https://www.infobae.com/resizer/v2/4Z3YICKFTNBPDAVSUN4R6CWRSM.png?auth=5179cd6c340e0f78f74a5b36536435151fb3096e875e1800580bbf068ed84099&smart=true&width=1408&height=768" alt="Estafadores utilizan mensajes y audios generados por IA para solicitar transferencias y datos sensibles a través de redes sociales. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p>A estas prácticas se suman <b>estafas asociadas a promociones engañosas, descuentos falsos o alquileres turísticos inexistentes</b> que circulan en redes sociales y plataformas digitales. El uso de tecnologías avanzadas permite que estos esquemas amplifiquen el alcance y la sofisticación de fraudes ya conocidos.</p><h2>Sistemas de seguridad bajo revisión</h2><p>El avance de la IA generativa pone en tela de juicio la validez de muchos sistemas de seguridad implementados en los últimos veinte años. Las validaciones remotas, los mecanismos de autenticación por reconocimiento de voz o video y las pruebas digitales se diseñaron bajo la premisa de que el contenido audiovisual resultaba fiable. Esa premisa hoy enfrenta cuestionamientos tecnológicos que obligan a repensar las estrategias de protección digital.</p><p>Especialistas advierten que <b>múltiples mecanismos de seguridad se ven superados</b> por la capacidad de la IA para reproducir voces o apariencias con alta precisión, poniendo en riesgo operaciones financieras, accesos a servicios y la protección de datos personales.</p><h2>Dos desafíos centrales: tecnología y regulación</h2><p>Frente a este escenario, emergen dos retos principales. El primero corresponde al plano tecnológico. Así como la inteligencia artificial facilita la creación de deepfakes, también existe un desarrollo acelerado de sistemas para detectar contenido manipulado y autenticar identidades digitales de manera robusta. La dinámica se presenta como <b>una auténtica carrera entre quienes diseñan fraudes y quienes desarrollan soluciones de detección y verificación</b>.</p><img src="https://www.infobae.com/resizer/v2/3UAXG4FNLVA23KNLUHJ7RTSIUU.png?auth=c5b7fea0281bed79f260f10914fd0c6018b9ab256d4417de0eae46bfe987d831&smart=true&width=1408&height=768" alt="Los sistemas de autenticación basados en voz o imagen enfrentan cuestionamientos por la sofisticación de los deepfakes. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p>El segundo desafío es normativo. Argentina, al igual que otros países de la región, carece hasta el momento de un marco legal específico que aborde la suplantación de identidad mediante IA en toda su complejidad. Aunque existen figuras jurídicas asociadas al fraude o a la falsificación, el fenómeno actual introduce nuevos elementos: <b>escalabilidad, automatización y anonimato en niveles sin precedentes</b>. La falta de regulación adecuada expone a los usuarios y dificulta la persecución de los responsables.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/L7EABDX35NGDZDIQWOU4UOC2M4.png?auth=55e1470080056e213028158b5b12724afea9754b1360fccabe604106015ae403&amp;smart=true&amp;width=1536&amp;height=1024" type="image/png" height="1024" width="1536"><media:description type="plain"><![CDATA[(Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Cómo saber si una llamada de voz es de inteligencia artificial: señales para detectar un deepfake]]></title><link>https://www.infobae.com/tecno/2026/03/24/como-saber-si-una-llamada-de-voz-es-de-inteligencia-artificial-senales-para-detectar-un-deepfake/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2026/03/24/como-saber-si-una-llamada-de-voz-es-de-inteligencia-artificial-senales-para-detectar-un-deepfake/</guid><dc:creator><![CDATA[Santiago Neira]]></dc:creator><description><![CDATA[La facilidad para imitar voces mediante sistemas generativos multiplica los intentos de estafa y obliga a renovar los protocolos de seguridad]]></description><pubDate>Tue, 24 Mar 2026 15:58:32 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/B5T7ENZXGRAJNO33IQUBGKPQMU.png?auth=e2161ed9209d96045d7247674592a26a6adcf4a0ebc8aa1359e214bb75d32389&smart=true&width=1408&height=768" alt="Ser prevenido es clave para poder identificar una estafa telefónica, antes que sea demasiado tarde - (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p><a href="https://www.infobae.com/tecno/2026/03/22/mas-humana-que-nunca-nueva-robot-que-hace-contacto-visual-sonrie-y-confunde-a-expertos-en-ia/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/03/22/mas-humana-que-nunca-nueva-robot-que-hace-contacto-visual-sonrie-y-confunde-a-expertos-en-ia/"><b>El avance de la inteligencia artificial</b></a> ha cambiado la forma en que las personas interactúan<a href="https://www.infobae.com/tecno/2026/03/17/por-que-sigues-recibiendo-llamadas-no-deseadas-aunque-bloquees-numeros-asi-puedes-protegerte-del-spam/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/03/17/por-que-sigues-recibiendo-llamadas-no-deseadas-aunque-bloquees-numeros-asi-puedes-protegerte-del-spam/"><b> a través de llamadas telefónicas</b></a>. La aparición de deepfakes de voz plantea <b>nuevos desafíos de seguridad para empresas y usuarios particulares</b>. </p><p>Actualmente<b> detectar si una llamada es auténtica o generada por IA se ha vuelto una necesidad urgente</b>, ya que los fraudes con audio sintético aumentan y los ataques se vuelven más sofisticados.</p><p>La relevancia de este fenómeno radica en el potencial de los deepfakes para eludir verificaciones de identidad, cometer fraudes financieros o manipular información confidencial. <b>Herramientas de generación de voz permiten imitar a ejecutivos, familiares o proveedores con una precisión alarmante</b>, utilizando apenas unos segundos de audio original. </p><img src="https://www.infobae.com/resizer/v2/C2EM5T37JBEMPC3L5TKVTR4MX4.png?auth=5ec5397d5291e424d6d5b2ac04a49c43f7e584e2715ca22f9202539ee18ad826&smart=true&width=1536&height=864" alt="Detectar llamadas deepfake: las claves tecnológicas para no caer en fraudes de voz - (Imagen Ilustrativa Infobae)" height="864" width="1536"/><p>La facilidad con la que se producen estas falsificaciones obliga a desarrollar nuevas estrategias de defensa.</p><h2>Cómo funcionan los ataques de voz deepfake</h2><p>Un ataque típico comienza con la recolección de un breve clip de audio de la persona objetivo. Este <b>material puede obtenerse fácilmente de redes sociales, entrevistas o grabaciones</b> públicas.</p><p>Mediante IA, los atacantes crean un modelo de voz sintética capaz de reproducir frases preestablecidas o, en casos avanzados, responder en tiempo real a preguntas y mantener una conversación fluida.</p><p>El siguiente paso es contactar a la víctima. <b>Los estafadores suelen hacerse pasar por figuras de autoridad, como directores generales o proveedores</b>, y emplean técnicas de ingeniería social para generar presión y urgencia. </p><p><b>Solicitan transferencias de fondos</b>, cambios de contraseñas o información sensible, todo bajo la apariencia de una solicitud legítima.</p><h2>Señales para identificar una llamada deepfake</h2><img src="https://www.infobae.com/resizer/v2/4W54WFM2PBGQZNAW2NFMPGDE5E.png?auth=d0c81645bc25e7937c41af56949a588b1dd19aeb328dea12137c9b2030bae1ef&smart=true&width=2752&height=1536" alt="Herramientas de análisis acústico, doble verificación y capacitación se convierten en aliados esenciales para enfrentar el desafío creciente de los audios falsificados por inteligencia artificial en el ámbito corporativo y personal - (Imagen Ilustrativa Infobae)" height="1536" width="2752"/><p>Aunque la tecnología mejora cada año, existen señales que pueden alertar sobre la autenticidad de una llamada:</p><ul><li><b>Ritmo poco natural:</b>&nbsp;La voz puede sonar demasiado pausada, monótona o, por el contrario, acelerada sin motivo.</li><li><b>Tono emocional plano:</b>&nbsp;Falta de matices o emociones genuinas en la entonación, incluso en contextos que normalmente requerirían énfasis o preocupación.</li><li><b>Respiración antinatural:</b>&nbsp;Ausencia de pausas normales para respirar, frases extensas sin interrupciones o sonidos de respiración artificial.</li><li><b>Sonido robótico o metálico:</b>&nbsp;En herramientas menos avanzadas, la voz puede presentar un timbre poco realista o efectos digitales evidentes.</li><li><b>Ruido de fondo extraño:</b>&nbsp;Ausencia total de ambiente o presencia de un fondo demasiado uniforme y artificial.</li><li><b>Errores contextuales:</b>&nbsp;La IA puede cometer fallos al interpretar frases coloquiales, responder de manera incoherente o evitar temas inesperados.</li></ul><p>Las llamadas de voz generadas con inteligencia artificial no solo se apoyan en la sofisticación tecnológica, también en estrategias de manipulación psicológica bien planificadas.<b> Los atacantes suelen crear una sensación de urgencia para que la víctima actúe sin pensar, piden confidencialidad y desalientan cualquier consulta</b> con terceros. </p><p>Además, utilizan datos personales obtenidos previamente para sonar más convincentes y se hacen pasar por figuras de autoridad que resultan difíciles de cuestionar.</p><p>El objetivo de estas tácticas es reducir el escepticismo de la persona que recibe la llamada y aumentar las probabilidades de que siga instrucciones sin verificar la autenticidad de la voz. </p><p><b>Esta combinación de presión psicológica y credibilidad aparente convierte a los deepfakes en una herramienta especialmente eficaz </b>para cometer fraudes y obtener información sensible.</p><h2>Cómo protegerse de las llamadas deepfake</h2><img src="https://www.infobae.com/resizer/v2/ZMWFWQR7RZHRHINOE5EKT6XUAY.jpg?auth=8d5d848e17390c163c36e7909a9dd7690291f38f118eeb1f80187aecacde1f05&smart=true&width=1456&height=816" alt="Los ciberdelincuentes utilizan modelos avanzados para engañar a sus víctimas, mientras la tecnología y la formación constante emergen como barreras indispensables frente a la manipulación de llamadas telefónicas - (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Implementar medidas de verificación es fundamental para reducir el riesgo de caer en fraudes de voz sintética:</p><ul><li><b>Verificación fuera de banda:</b>&nbsp;Confirmar cualquier solicitud telefónica a través de otro canal, como mensajería corporativa o correo electrónico oficial.</li><li><b>Doble aprobación:</b>&nbsp;Requerir que dos personas aprueben transferencias de fondos o cambios de datos bancarios.</li><li><b>Frases clave o preguntas preacordadas:</b>&nbsp;Utilizar contraseñas verbales o preguntas privadas conocidas solo por los involucrados.</li><li><b>Capacitación y simulaciones:</b>&nbsp;Incluir entrenamientos específicos sobre deepfakes en los programas de sensibilización para empleados o usuarios.</li></ul><p>Existen soluciones especializadas capaces de analizar parámetros acústicos y patrones de voz para identificar señales de audio sintético. </p><p>Además, limitar la exposición pública de la voz de ejecutivos o figuras clave puede dificultar la obtención de muestras por parte de los atacantes.</p><p>El aumento de los deepfakes de voz exige una respuesta basada en la combinación de personas, procesos y tecnología. <b>La formación regular, la actualización de protocolos y el uso de herramientas de detección permiten reducir la exposición</b> a este tipo de amenazas. </p><p>Revisar y adaptar las estrategias de seguridad es esencial en un entorno donde la inteligencia artificial avanza con rapidez.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/B5T7ENZXGRAJNO33IQUBGKPQMU.png?auth=e2161ed9209d96045d7247674592a26a6adcf4a0ebc8aa1359e214bb75d32389&amp;smart=true&amp;width=1408&amp;height=768" type="image/png" height="768" width="1408"><media:description type="plain"><![CDATA[Ser prevenido es clave para poder identificar una estafa telefónica, antes que sea demasiado tarde - (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Meta denuncia a varios anunciantes fraudulentos en Brasil y China que utilizaban el 'cebo de famosos']]></title><link>https://www.infobae.com/america/agencias/2026/02/27/meta-denuncia-a-varios-anunciantes-fraudulentos-en-brasil-y-china-que-utilizaban-el-cebo-de-famosos/</link><guid isPermaLink="true">https://www.infobae.com/america/agencias/2026/02/27/meta-denuncia-a-varios-anunciantes-fraudulentos-en-brasil-y-china-que-utilizaban-el-cebo-de-famosos/</guid><dc:creator><![CDATA[Newsroom Infobae]]></dc:creator><description><![CDATA[Meta ha iniciado demandas y bloqueos contra individuos y compañías en varios países acusados de manipular la imagen de figuras públicas en promociones falsas, promocionando productos irregulares y estafando usuarios con sofisticadas técnicas digitales en redes sociales]]></description><pubDate>Fri, 27 Feb 2026 11:16:11 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/EHL22CQINFHL5AQ5U5UYWNSKNU.jpg?auth=46cbda97d6eb79184ce30faca239f9626561b8a52e49c34f9a90722fb34057eb&smart=true&width=1920&height=1080" alt="" height="1080" width="1920"/><p>La empresa Meta emitió cartas de cese y desestimiento dirigidas a ocho consultores de marketing que publicitaban métodos para eludir sus directrices mediante inteligencia artificial. Esta acción se suma a una serie de demandas y bloqueos que la tecnológica ha realizado contra individuos y compañías de Brasil, China y Vietnam, tras detectar el uso de estrategias digitales avanzadas para manipular la imagen de figuras públicas y concretar estafas en redes sociales. Según reportó el medio, la compañía busca frenar campañas fraudulentas que emplean técnicas como el ‘cebo de famosos’ con el objetivo de captar información personal de los usuarios o inducir transferencias económicas hacia sitios engañosos.</p><p>De acuerdo con la información difundida por la compañía y recogida por la prensa, Meta concentra sus acciones legales sobre sujetos y empresas localizados principalmente en Brasil y China. Estas organizaciones y personas, detalló el medio, montaban campañas publicitarias donde utilizaban imágenes y audios editados de personalidades conocidas. El fin de estas campañas era atraer a los usuarios y dirigirlos a páginas web falsas, donde posteriormente se les solicitaban datos personales y bancarios o pagos directos.</p><p>Meta identificó que en Brasil, los anunciantes Vitor Lourenço de Souza y Milena Luciani Sanchez figuraban entre quienes recurrían a la manipulación digital de la imagen y la voz de celebridades con el propósito de promocionar suplementos asociados de manera engañosa con mejoras en la salud. Otras entidades brasileñas mencionadas son B&B Suplementos e Cosméticos, Brites Academia de Treinamento, Daniel de Brites Macieira Cordeiro y José Victor de Brites Chaves de Araújo. Estas empresas y personas utilizaron recreaciones digitales (deepfakes) de un médico ampliamente reconocido en el país para publicitar medicamentos que no cuentan con autorización regulatoria, así como para ofrecer cursos que enseñaban a aplicar estas técnicas de manipulación digital.</p><p>El medio consignó que en China, la empresa Shenzhen Yunzheng Technology diseñó e implementó operaciones publicitarias fraudulentas con alcance internacional. Utilizaron el 'cebo de famosos' para captar víctimas en Estados Unidos y Japón, como parte de una estrategia más amplia enfocada en el desarrollo de esquemas piramidales. La trama consistía en ganarse la confianza de los usuarios mediante la supuesta asociación con figuras públicas y así conducirlos hacia estafas de tipo financiero.</p><p>Meta apuntó también a la actividad de la compañía vietnamita Ly Van Lâm. Según reportó el medio, esta empresa evadió los sistemas de revisión de anuncios de Meta para ofrecer productos de marcas reconocidas a precios notablemente inferiores, bajo la condición de que los usuarios completasen una encuesta. Dicho formulario requería el ingreso de datos personales sensibles, incluidos los bancarios, lo que derivó en cobros no autorizados en las tarjetas de quienes participaron.</p><p>Frente a estas prácticas, Meta puso en marcha desde marzo la utilización de tecnología de reconocimiento facial en la Unión Europea y Reino Unido, detalló la compañía. El objetivo de esta herramienta radica en salvaguardar a figuras públicas frente a la manipulación no autorizada de su imagen en campañas digitales, fortaleciendo así las capas de protección para las personas cuyos rostros suelen emplearse como reclamo en estafas de alcance transnacional.</p><p>Entre las medidas internas adoptadas, Meta procedió a suspender métodos de pago asociados a las cuentas implicadas, inhabilitó perfiles y restringió los nombres de los sitios web empleados por estos anunciantes fraudulentos. La compañía comunicó, según relató el medio, que los responsables de intentar explotar a otros a través de las plataformas deberán enfrentar consecuencias directas. Esta posición fue expresada mediante el siguiente mensaje en su sitio web: “Quienes intenten explotar a otros en nuestras plataformas deberán rendir cuentas”.</p><p>Meta subrayó que la extensión y sofisticación de estos esquemas exige una supervisión continua y la introducción de barreras tecnológicas avanzadas, sobre todo ante el uso creciente de inteligencia artificial para evadir los procesos de control y revisión de contenidos promocionales. La empresa mantuvo que sus acciones buscan no solo frenar el avance de los actores maliciosos en sus redes, sino también disuadir la adopción de prácticas digitales engañosas entre quienes aspiran a beneficiarse mediante fraudes en línea.</p><p>Hasta la fecha referida, Meta persiste en la identificación y neutralización de actores y técnicas asociadas al ‘cebo de famosos’, manipulación digital y el uso fraudulento de la imagen de personalidades públicas, como parte de su política de protección frente a modalidades de estafa cada vez más especializadas que afectan a usuarios en diferentes regiones.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/EHL22CQINFHL5AQ5U5UYWNSKNU.jpg?auth=46cbda97d6eb79184ce30faca239f9626561b8a52e49c34f9a90722fb34057eb&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"/></item><item><title><![CDATA[Estudio alerta que los contenidos de IA para estafas se están produciendo a escala “industrial”]]></title><link>https://www.infobae.com/tecno/2026/02/06/estudio-alerta-que-los-contenidos-de-ia-para-estafas-se-estan-produciendo-a-escala-industrial/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2026/02/06/estudio-alerta-que-los-contenidos-de-ia-para-estafas-se-estan-produciendo-a-escala-industrial/</guid><dc:creator><![CDATA[Renzo Gonzales]]></dc:creator><description><![CDATA[Herramientas de IA permiten crear deepfakes personalizados y accesibles para estafas globales]]></description><pubDate>Fri, 06 Feb 2026 22:27:54 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/EPUUW4WU4VARPCBA43UPHMCU2M.png?auth=d074f4e74e5c06e9ec86d52b2375ab312c4c9ca18529ae70012e2c3a9b7f1071&smart=true&width=1408&height=768" alt="Casos recientes incluyen videos de líderes políticos y médicos falsos promoviendo fraudes. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p>Las<b> </b><a href="https://www.infobae.com/tecno/2025/12/03/nueva-estafa-digital-usan-ia-para-falsificar-pruebas-y-conseguir-reembolsos-online/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/12/03/nueva-estafa-digital-usan-ia-para-falsificar-pruebas-y-conseguir-reembolsos-online/"><b>estafas digitales</b> </a>impulsadas por inteligencia artificial atraviesan una etapa de expansión sin precedentes. Un análisis realizado por especialistas de la <b>AI Incident Database</b> advierte que el fraude basado en contenidos generados por IA, como los <a href="https://www.infobae.com/tecno/2026/01/30/al-menos-150-canales-de-telegram-difunden-desnudos-deepfake-generados-por-ia-revela-informe/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/01/30/al-menos-150-canales-de-telegram-difunden-desnudos-deepfake-generados-por-ia-revela-informe/"><b>deepfakes</b></a>, ha dejado de ser un fenómeno marginal para convertirse en una herramienta accesible cuyo uso masivo ha llegado a una escala “industrial”.</p><p>La facilidad para crear videos, audios e imágenes falsificadas de manera personalizada y a bajo costo está transformando la dinámica de la ciberdelincuencia global.</p><h2>Deepfakes y su impacto en el fraude digital</h2><p>El estudio identifica más de una docena de casos recientes donde los delincuentes utilizaron herramientas de IA para suplantar identidades con fines de lucro. Entre los ejemplos figuran <b>videos falsos del presidente de Chipre</b>, periodistas suecos o el primer ministro de Australia Occidental, <b>Robert Cook</b>, promoviendo esquemas fraudulentos. También se reportaron deepfakes de supuestos médicos recomendando productos en línea.</p><img src="https://www.infobae.com/resizer/v2/2LBPVMRU7FHEHLQAHAVEVFUXGU.png?auth=68276858eca5cb0e292480e6f1eb26894a30d85ecf4b53c5f959c7fd114bb277&smart=true&width=1408&height=768" alt="Expertos advierten que los deepfakes ya superan barreras técnicas y legales con facilidad. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p>Esta tendencia se refleja en incidentes de alto perfil, como el caso de un responsable financiero en una multinacional de Singapur que transfirió cerca de <b>500.000 dólares</b> tras una videollamada manipulada con deepfakes que imitaban a sus superiores. En <b>Reino Unido</b>, se estiman pérdidas de <b>9.400 millones de libras</b> por fraudes entre febrero y noviembre de 2025.</p><p>“Las capacidades han llegado a un punto donde prácticamente cualquiera puede generar contenido falso”, señala a The Guardian <b>Simon Mylius</b>, investigador del MIT vinculado al proyecto. Según sus cálculos, los fraudes y manipulaciones dirigidas representan la mayoría de los casos reportados en la base de datos durante los últimos meses.</p><h2>La facilidad y velocidad de la estafa automatizada</h2><p>El abaratamiento y mejora de los modelos de IA han acelerado la producción de deepfakes, facilitando su uso en campañas fraudulentas a gran escala. “Es tan barato que cualquiera puede utilizarlo. Los modelos están mejorando más rápido de lo que muchos especialistas preveían”, advierte <b>Fred Heiding</b>, investigador de Harvard enfocado en estafas potenciadas por IA.</p><img src="https://www.infobae.com/resizer/v2/Q5OZU7Y7MVB23K56OIBGCU7W34.png?auth=13fbb010d11a286ebf76568902d918239f68f9362ce136af51ab188dc2ae1078&smart=true&width=1408&height=768" alt="El aumento de los fraudes con IA amenaza la confianza en instituciones y medios digitales. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p>Un caso reciente ilustra el alcance de la amenaza. <b>Jason Rebholz</b>, CEO de una compañía de seguridad de IA, publicó una vacante laboral y fue contactado por un candidato que, tras intercambios de correos, resultó ser una imagen generada por IA.</p><p>Durante la videollamada, el entorno y los bordes del rostro del supuesto candidato resultaban artificiales y poco definidos. Tras consultar con una firma de detección de deepfakes, Rebholz confirmó que el aspirante era un fraude digital. El objetivo del estafador sigue sin estar claro: podría haber buscado obtener un salario o acceder a información confidencial.</p><p>Rebholz advierte que este tipo de ataques ya no se limita a grandes empresas. “Si nosotros somos objetivo, cualquiera puede serlo”, afirma. Los expertos señalan que el verdadero desafío se vislumbra en el futuro próximo, a medida que la tecnología de clonación de voz y video perfeccione su calidad, haciendo aún más difícil distinguir entre lo real y lo falso.</p><img src="https://www.infobae.com/resizer/v2/XFIC536HXNBHDM62T7OXBHY6HI.png?auth=704d22844e1ecad72ced6da921037fb13a76fa52ffb848ae41ac38a48a794237&smart=true&width=1408&height=768" alt="El fraude con contenidos falsos afecta a empresas, gobiernos y usuarios en todo el mundo. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><h2>Consecuencias y desafíos para la confianza digital</h2><p>El crecimiento del fraude con IA plantea riesgos crecientes para la seguridad, la economía y la confianza pública. El uso de <b>deepfakes</b> y clonación de voz ya impacta procesos críticos, desde contrataciones laborales hasta campañas electorales. La capacidad de los estafadores para manipular audiencias, suplantar identidades y acceder a recursos financieros o secretos empresariales genera preocupación entre especialistas y autoridades.</p><p>Fred Heiding advierte sobre el peligro de una pérdida generalizada de confianza en instituciones digitales y en la veracidad de los contenidos que circulan en línea. “Ese será el gran punto de dolor: la ausencia total de confianza en las instituciones y materiales digitales”, sostiene.</p><p>La facilidad para adquirir y utilizar herramientas de IA abre la puerta a una industrialización del fraude, donde la escala y la personalización de los ataques aumentan el desafío para empresas, gobiernos y usuarios. El estudio concluye que la sociedad enfrentará un escenario en el que la autenticidad digital será cada vez más difícil de garantizar, obligando a reforzar las estrategias de prevención, detección y educación frente a los riesgos emergentes de la inteligencia artificial.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/EPUUW4WU4VARPCBA43UPHMCU2M.png?auth=d074f4e74e5c06e9ec86d52b2375ab312c4c9ca18529ae70012e2c3a9b7f1071&amp;smart=true&amp;width=1408&amp;height=768" type="image/png" height="768" width="1408"><media:description type="plain"><![CDATA[Casos recientes incluyen videos de líderes políticos y médicos falsos promoviendo fraudes. (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[UNICEF solicita que se penalice el uso de la inteligencia artificial para generar contenido sexual infantil   ]]></title><link>https://www.infobae.com/tecno/2026/02/05/unicef-solicita-que-se-penalice-el-uso-de-la-inteligencia-artificial-para-generar-contenido-sexual-infantil/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2026/02/05/unicef-solicita-que-se-penalice-el-uso-de-la-inteligencia-artificial-para-generar-contenido-sexual-infantil/</guid><dc:creator><![CDATA[Rafael Montoro]]></dc:creator><description><![CDATA[La agencia de las Naciones Unidas también insta a que las empresas digitales inviertan en tecnologías de detección para impedir que estas imágenes circulen por internet     ]]></description><pubDate>Thu, 05 Feb 2026 20:11:08 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/PQOKSLQQ2FC3LMY4RF4MNP7BFM.png?auth=4edfd8289fca245fbca5b780eaa0e626f0a661aa54e2a4880cca6cd8bf6589a3&smart=true&width=1408&height=768" alt="El organismo de la ONU advierte sobre el daño real que provocan los abusos mediante deepfakes. 
(Imagen ilustrativa Infobae)" height="768" width="1408"/><p>La creciente utilización de modelos de <a href="https://www.infobae.com/tecno/2026/02/05/la-ia-llega-a-tinder-para-ayudar-a-los-usuarios-a-encontrar-el-match-perfecto/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/02/05/la-ia-llega-a-tinder-para-ayudar-a-los-usuarios-a-encontrar-el-match-perfecto/">inteligencia artificial</a> para crear imágenes de abuso sexual infantil ha encendido las alarmas en la comunidad internacional. <b>UNICEF</b>, la agencia de las Naciones Unidas para la infancia, ha solicitado a los países que penalicen de manera explícita la producción de este tipo de <a href="https://www.infobae.com/tecno/2026/01/15/grok-pone-fin-al-contenido-de-semidesnudos-tras-las-criticas-y-problemas-judiciales/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/01/15/grok-pone-fin-al-contenido-de-semidesnudos-tras-las-criticas-y-problemas-judiciales/">contenidos generados por IA</a>. </p><p>La preocupación es especialmente intensa ante los reportes sobre el aumento de imágenes digitales que sexualizan a menores, tendencia que, según UNICEF, requiere una respuesta inmediata y coordinada. </p><h2>Inteligencia artificial y abuso infantil: el pedido de acción de UNICEF</h2><p>UNICEF ha reclamado medidas urgentes a los gobiernos y a la industria tecnológica para frenar el uso de la<b> IA</b> en la creación de imágenes que explotan sexualmente a los niños. La agencia subraya la necesidad de implementar enfoques de seguridad desde ​el diseño y medidas de protección para evitar el uso indebido de los ‌modelos de IA. </p><img src="https://www.infobae.com/resizer/v2/DFXC2TSPYFEJBC3OJROBVVBNHM.jpg?auth=e2ab06384e1501bcf4521198d2378639b8d2fc24f7533845971041560d7befe0&smart=true&width=5136&height=3446" alt="UNICEF tiene el objetivo principal de proteger y promover los derechos de los niños, niñas y adolescentes en todo el mundo. 


Europa Press/Contacto/Pavlo Gonchar
" height="3446" width="5136"/><p>Además, insta a que las <b>empresas digitales </b>refuercen la moderación de contenidos e inviertan en tecnologías de detección para impedir que estas imágenes circulen por internet. </p><p>El organismo de la ONU advierte sobre el daño real que provocan los abusos mediante deepfakes, imágenes, videos y audios generados por IA que imitan a personas reales.<b> “El daño que provoca el abuso mediante deepfake es real y requiere una acción inmediata. Los niños y niñas no pueden estar esperando a que la legislación se actualice”</b>, recalca UNICEF en su comunicado. </p><h2>Deepfakes y manipulación de imágenes </h2><p>Otra de las preocupaciones de UNICEF es el uso de la inteligencia artificial para quitar o alterar la ropa en fotografías, generando imágenes falsas sexualizadas de menores. Este tipo de manipulación representa una amenaza creciente, ya que la tecnología hace cada vez más sencillo crear contenido falso convincente y potencialmente dañino. </p><img src="https://www.infobae.com/resizer/v2/5I34BO5VQ5G7FFHJDRLCGRKMDI.png?auth=7759fddcfa48f296f149f6778529929e958cdbaef3b776c955ec585713de48c4&smart=true&width=1408&height=768" alt="UNICEF ha reclamado medidas urgentes a los gobiernos y a la industria tecnológica para frenar el uso de la IA.   
(Imagen ilustrativa Infobae)" height="768" width="1408"/><p>Durante el último año, al menos 1,2 millones de niños y niñas de 11 países reportaron que sus imágenes habían sido manipuladas para crear <b>deepfakes</b> sexualmente explícitos. Este dato, presentado por UNICEF, pone en evidencia la urgencia de avanzar en regulaciones y respuestas tecnológicas a escala global. </p><h2>Iniciativas y desafíos legales frente al contenido sexual infantil generado por IA</h2><p>Gran Bretaña ha dado un paso al frente al anunciar su intención de ilegalizar el uso de herramientas de inteligencia artificial para crear imágenes de <b>abuso sexual infantil</b>, convirtiéndose en el primer país en adoptar una medida de este tipo. Esta decisión marca una tendencia creciente en la preocupación internacional por el uso de IA, especialmente en la generación de contenidos ilegales y dañinos. </p><p>En los últimos años, la atención pública se ha centrado también en los chatbots de IA, como Grok de xAI, propiedad de Elon Musk, que ha sido cuestionado por producir imágenes sexualizadas de mujeres y menores. </p><img src="https://www.infobae.com/resizer/v2/LNPJFG63NJCJVKZXSF26BKE2EQ.png?auth=d95dbd5e1888638d50492c26150d2f150e198554894b5cedc48cda553f367ae1&smart=true&width=1920&height=1080" alt="Un deepfake es un contenido digital manipulado con IA para imitar de forma realista la apariencia, la voz o los gestos de una persona.  

 (Imagen ilustrativa)" height="1080" width="1920"/><p>La presión sobre los desarrolladores y las plataformas tecnológicas para implementar filtros y mecanismos de seguridad se intensifica a medida que la tecnología avanza y los riesgos se multiplican. </p><p>UNICEF reitera la urgencia de actuar para proteger a la infancia, insistiendo en que la respuesta no puede esperar a que las leyes se adapten al ritmo de la innovación tecnológica. La protección de los derechos de los <b>niños </b>y <b>niñas </b>sigue siendo el eje de su llamado a la acción internacional. </p><h2>Qué es UNICEF y cuál es su misión en la protección de la infancia</h2><p>UNICEF, el Fondo de las Naciones Unidas para la Infancia, es una agencia internacional fundada en 1946 con el objetivo principal de proteger y promover los derechos de los niños, niñas y adolescentes en todo el mundo. </p><img src="https://www.infobae.com/resizer/v2/EB7MML6VYCIYSFCNLM22RWG3WM.jpg?auth=3707aace1bc6495764425b22ddbd59dcfc8b9fee0348353c862922d7decf0af3&smart=true&width=3500&height=2262" alt="UNICEF reitera la urgencia de actuar para proteger a la infancia. 
 REUTERS/Denis Balibouse  " height="2262" width="3500"/><p>Su labor abarca una amplia variedad de áreas, como la salud, la educación, la nutrición, la <b>protección contra la violencia y la emergencia humanitaria</b>, asegurando que los menores tengan acceso a servicios básicos y a un entorno seguro para su desarrollo integral.</p><p>La organización trabaja en más de 190 países y territorios, colaborando con gobiernos, organizaciones no gubernamentales y comunidades locales para implementar programas y políticas que mejoren la calidad de vida de la infancia. </p><p>Además, UNICEF lidera campañas de sensibilización y abogacía para que los derechos de los niños sean respetados y se mantengan como prioridad en la agenda internacional, especialmente en contextos de crisis o vulnerabilidad.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/PQOKSLQQ2FC3LMY4RF4MNP7BFM.png?auth=4edfd8289fca245fbca5b780eaa0e626f0a661aa54e2a4880cca6cd8bf6589a3&amp;smart=true&amp;width=1408&amp;height=768" type="image/png" height="768" width="1408"><media:description type="plain"><![CDATA[El organismo de la ONU advierte sobre el daño real que provocan los abusos mediante deepfakes. 
(Imagen ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Al menos 150 canales de Telegram difunden desnudos deepfake generados por IA, revela informe]]></title><link>https://www.infobae.com/tecno/2026/01/30/al-menos-150-canales-de-telegram-difunden-desnudos-deepfake-generados-por-ia-revela-informe/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2026/01/30/al-menos-150-canales-de-telegram-difunden-desnudos-deepfake-generados-por-ia-revela-informe/</guid><dc:creator><![CDATA[Renzo Gonzales]]></dc:creator><description><![CDATA[La creación y difusión masiva de imágenes íntimas falsas ha dado lugar a un ecosistema global de abuso digital, el cual afecta principalmente a mujeres]]></description><pubDate>Fri, 30 Jan 2026 00:06:53 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/D756MHYAQ5B6TEJ6SOSFBSIILM.png?auth=44f776fd9a90294af62056fc7deff094b0bb2ddc753f7cfc61e0bdcd711137c1&smart=true&width=1920&height=1080" alt="Los canales ofrecen servicios de “desnudar” fotos por encargo o difunden imágenes manipuladas de mujeres sin su consentimiento. (Reuters)" height="1080" width="1920"/><p>El uso de inteligencia artificial para crear y distribuir imágenes íntimas falsas ha alcanzado una escala industrial en <a href="https://www.infobae.com/tag/telegram/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/telegram/"><b>Telegram</b></a>. Un análisis realizado por The Guardian identificó al menos 150 canales en la plataforma de mensajería que difunden <a href="https://www.infobae.com/tecno/2026/01/28/google-y-apple-eliminan-decenas-de-aplicaciones-de-ia-de-sus-tiendas-oficiales-por-realizar-desnudos/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/01/28/google-y-apple-eliminan-decenas-de-aplicaciones-de-ia-de-sus-tiendas-oficiales-por-realizar-desnudos/"><b>desnudos deepfake generados por IA</b></a>, afectando a mujeres de todo el mundo y facilitando el acceso instantáneo a contenido no consensuado.</p><p>Telegram, conocido por sus chats encriptados y la posibilidad de crear canales con miles de miembros, se ha convertido en uno de los principales espacios para este tipo de abuso digital. Los canales detectados operan en distintos países, desde Reino Unido y Brasil, hasta China, Nigeria, Rusia e India.</p><p>Algunos cobran por “desnudar” fotos mediante IA o por generar videos sexuales falsos de cualquier mujer a partir de una imagen. Otros distribuyen gratuitamente imágenes manipuladas de <b>celebridades, influencers y mujeres que no son mediáticas</b>, además de compartir consejos para el uso de estas herramientas.</p><h2>Un ecosistema global de abuso digital</h2><p>La disponibilidad de tecnologías de IA para manipular imágenes ha democratizado el acceso a la creación de pornografía deepfake. Ahora, cualquier usuario puede convertir a una mujer en objetivo de contenido sexual falso y viralizable, sin su conocimiento ni consentimiento.</p><img src="https://www.infobae.com/resizer/v2/JQP5F3LIWVFHDHFR4QXT34PYWE.JPG?auth=f9e0a4fc7d67db559fd3b953b481a6b57a4956b58e7c8bab2ddb733487a57a77&smart=true&width=3000&height=2002" alt="Bots y herramientas de IA permiten crear videos sexuales falsos a partir de una sola imagen en cuestión de minutos. (Reuters)" height="2002" width="3000"/><p>En canales en ruso, por ejemplo, se promocionan bots capaces de generar videos explícitos a partir de una simple foto, mientras que en canales chinos —con decenas de miles de suscriptores— los usuarios difunden videos de exparejas o conocidas “desnudadas” por IA.</p><p>En Nigeria, los canales mezclan deepfakes con imágenes íntimas robadas, generando una red aún más compleja de violencia digital. Anne Craanen, investigadora del Instituto para el Diálogo Estratégico de Londres, explica que Telegram permite evadir los controles de plataformas más grandes como Google, además de facilitar la circulación de consejos para sortear las barreras que intentan imponer los desarrolladores de IA para evitar estos abusos.</p><p>El fenómeno, señala Craanen, no solo implica la producción y distribución de imágenes, sino que también se alimenta del <b>“boasting”</b> o alarde entre los usuarios sobre sus acciones, reflejando un trasfondo misógino destinado a humillar o silenciar mujeres.</p><p>La respuesta de Telegram ha sido eliminar miles de contenidos cuando son detectados. Según datos de la plataforma, en 2025 se retiraron más de 952.000 archivos relacionados con pornografía deepfake.</p><img src="https://www.infobae.com/resizer/v2/V2YL4CZ4DZAMBLNZC2UDKV7LVU.JPG?auth=5ad814980489bee7099b3510faaeab20f92d44ea204b1469ee59a94fa1d39a2b&smart=true&width=3000&height=2001" alt="En 2025, Telegram eliminó más de 952.000 archivos vinculados a pornografía deepfake tras detectar abusos. (Reuters)" height="2001" width="3000"/><p>La empresa asegura que estos materiales y las herramientas que los generan están prohibidos por sus términos de servicio, y que utiliza sistemas de moderación apoyados en IA para identificar y eliminar el material infractor. Sin embargo, el volumen y la velocidad con la que surgen nuevos canales y bots superan la capacidad de control.</p><h2>Falta de regulación y consecuencias para las víctimas</h2><p>La proliferación de deepfakes sexuales en Telegram es el reflejo de un problema que atraviesa todo el ecosistema digital. El informe de la <b>Tech Transparency Project </b>reveló que existen decenas de aplicaciones de “nudificación” disponibles en las tiendas de Google y Apple, con más de 700 millones de descargas en conjunto. Aunque ambas compañías han eliminado varias de estas apps tras el reporte, otras continúan activas o reaparecen bajo diferentes nombres.</p><p>El vacío legal es otro factor clave. Solo un 40% de los países cuentan con leyes para proteger a mujeres y niñas del acoso o la violencia digital, según datos del Banco Mundial y la ONU. En el sur global, la falta de regulación, la baja alfabetización digital y la pobreza agravan la vulnerabilidad.</p><p>Activistas y especialistas como Ugochi Ihe, de la organización nigeriana <b>TechHer</b>, reportan casos de mujeres extorsionadas mediante deepfakes creados por prestamistas o conocidos. El impacto trasciende lo digital: las víctimas enfrentan aislamiento, problemas de salud mental, pérdida de empleo y rechazo social o familiar.</p><img src="https://www.infobae.com/resizer/v2/TN6AB7N6EJFQFNG7LTL3HIBGSU.jpg?auth=49a2099e32d434fa6ae8fc9c9ecb59a28ddd7e91f021c7c2c9ee5f78a8df5d0b&smart=true&width=3500&height=2164" alt="Las consecuencias para las víctimas incluyen extorsión, aislamiento social, pérdida de empleo y daños a la salud mental. (Reuters)" height="2164" width="3500"/><p>Mercy Mutemi, abogada en Kenia que representa a víctimas de este tipo de abuso, advierte sobre las consecuencias irreparables: “Una vez que la imagen circula, no hay forma de recuperar la dignidad ni la identidad. Aunque se demuestre que fue un <b>deepfake</b>, el daño ya está hecho”. Su experiencia incluye jóvenes expulsadas de la escuela o privadas de oportunidades laborales por la circulación de imágenes manipuladas sin su consentimiento.</p><p>La escala y gravedad de este fenómeno subrayan la urgencia de promover marcos legales más sólidos, estrategias de prevención y mayor responsabilidad por parte de las plataformas tecnológicas para proteger la privacidad y la integridad de las mujeres en el entorno digital.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/D756MHYAQ5B6TEJ6SOSFBSIILM.png?auth=44f776fd9a90294af62056fc7deff094b0bb2ddc753f7cfc61e0bdcd711137c1&amp;smart=true&amp;width=1920&amp;height=1080" type="image/png" height="1080" width="1920"><media:description type="plain"><![CDATA[Los canales ofrecen servicios de “desnudar” fotos por encargo o difunden imágenes manipuladas de mujeres sin su consentimiento. (Reuters)]]></media:description></media:content></item><item><title><![CDATA[¿Puedes detectar un deepfake?: un test revela que la edad influye en la precisión   ]]></title><link>https://www.infobae.com/tecno/2026/01/22/puedes-detectar-un-deepfake-un-test-revela-que-la-edad-influye-en-la-precision/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2026/01/22/puedes-detectar-un-deepfake-un-test-revela-que-la-edad-influye-en-la-precision/</guid><dc:creator><![CDATA[Rafael Montoro]]></dc:creator><description><![CDATA[Mientras los jóvenes reconocen ocho de cada 10 fraudes, los adultos mayores presentan mayores dificultades   ]]></description><pubDate>Thu, 22 Jan 2026 21:20:49 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/ARW2Q4CDVZFZPHMDF6RDAAPCIA.png?auth=8cbabb4d21aeee4735495bb51efd77438a8fdbf91a3d4f5bca0330b31e70a86c&smart=true&width=1408&height=768" alt="Las personas mayores de 65 años solo logran identificar un poco más del 50% de los casos. 

(Imagen ilustrativa Infobae)" height="768" width="1408"/><p>La proliferación de contenidos generados por<a href="https://www.infobae.com/tecno/2025/09/17/como-usar-la-inteligencia-artificial-para-estudiar-y-trabajar-desde-mi-pc-segun-expertos-de-amd/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/09/17/como-usar-la-inteligencia-artificial-para-estudiar-y-trabajar-desde-mi-pc-segun-expertos-de-amd/"> IA</a> ha hecho que la detección de <b>fraudes </b>y falsificaciones digitales sea cada vez más desafiante, especialmente para ciertos grupos de edad. Una prueba reciente desarrollada por The Care Side, una entidad australiana de cuidado domiciliario, evidencia que los menores de 29 años identifican la mayoría de los <a href="https://www.infobae.com/tecno/2025/12/03/conoce-la-nueva-herramienta-que-puede-detectar-deepfakes-y-evitar-los-fraudes-digitales/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/12/03/conoce-la-nueva-herramienta-que-puede-detectar-deepfakes-y-evitar-los-fraudes-digitales/">deepfakes</a>, mientras que los mayores de 65 aciertan solo en la mitad de los casos, muchas veces por simple azar. </p><h2>Influencia de la edad y el conocimiento digital en la detección de deepfakes</h2><p>El test de The Care Side, en el que participaron más de 3.000 personas, muestra que la capacidad para distinguir contenidos generados por <b>IA</b> varía según la edad y el nivel de formación digital. Mientras los jóvenes reconocen ocho de cada 10 fraudes, los adultos mayores presentan mayores dificultades. </p><p><b>Las personas mayores de 65 años solo logran identificar un poco más del 50% de los casos</b> y, en numerosas ocasiones, sus aciertos se deben al azar más que a un razonamiento consciente.</p><p>Sin embargo, expertos como Hervé Lambert, de Panda Security, sostienen que el riesgo no es exclusivo de una generación, ya que la falta de concentración y la evolución de las amenazas afectan a todos los usuarios. Lambert dijo a El País que la inteligencia artificial aprovecha los momentos de menor atención para burlar a las personas, y subraya que la educación digital es clave, más allá de la edad. </p><img src="https://www.infobae.com/resizer/v2/4PHOTAL6Q5BUFFD2WUMXRPF5IU.png?auth=f1e2aafa91a6bec372f14440f7c446ce89275ff91b17b5952b871290ba185a43&smart=true&width=1408&height=768" alt="La proliferación de contenidos generados por IA ha hecho que la detección de fraudes digitales sea cada vez más desafiante.

(Imagen ilustrativa Infobae)" height="768" width="1408"/><p>“Creo que es un error limitar el problema a una cuestión generacional. <b>La IA es muy inteligente y sabe perfectamente que hay contextos y momentos del día donde vamos a tener muchísima menos concentración</b> en una cosa y eso lo utiliza muy bien”, sostuvo. </p><p>Marti DeLiema, del Centro de Envejecimiento Saludable e Innovación de la Universidad de Minnesota, coincide en que la IA ha cambiado radicalmente el panorama del fraude para toda la sociedad. </p><p>Por su parte, Josep Albors, de ESET España, advierte que los delincuentes explotan la IA para crear campañas de fraude cada vez más convincentes, utilizando imágenes, audios y videos difíciles de distinguir de los reales. </p><img src="https://www.infobae.com/resizer/v2/L7EABDX35NGDZDIQWOU4UOC2M4.png?auth=55e1470080056e213028158b5b12724afea9754b1360fccabe604106015ae403&smart=true&width=1536&height=1024" alt="Las voces artificiales suelen presentar pausas no naturales, ritmos robóticos, etc. 

(Imagen Ilustrativa Infobae)" height="1024" width="1536"/><p>“Estamos viendo videos muy bien en generados con unas voces idénticas a las personas que suplantan”, dijo Albors durante la última edición de los premios de comunicación de su compañía global de ciberseguridad.</p><h2>Cómo detectar fraudes con IA: texto, imagen, audio y video</h2><p>El estudio de The Care Side también identifica recomendaciones concretas en función del tipo de mensaje falso. La sofisticación de los <b>deepfakes </b>y otros fraudes digitales exige prestar atención a detalles específicos en distintos formatos. En los mensajes de texto, conviene desconfiar de saludos genéricos, plazos urgentes, solicitudes de datos personales o transferencias sin verificación, y errores de redacción. </p><img src="https://www.infobae.com/resizer/v2/EJQOVGUOFFD5DBWGDKZQGSFX3E.png?auth=baa484868cce1e368a7dc0817fa8f91d24da2afd6cd438658c50a699d801915e&smart=true&width=1408&height=768" alt="Un deepfake es un contenido digital manipulado mediante inteligencia artificial. 

(Imagen ilustrativa Infobae)" height="768" width="1408"/><p>En imágenes, las señales de alerta incluyen simetrías inusuales en los rostros, manos deformes o borrosas, texturas excesivamente suaves y fondos poco coherentes. </p><p>En el caso de los audios, las voces artificiales suelen presentar pausas no naturales, ritmos robóticos, <b>cambios abruptos en el tono</b>, ruidos extraños o respuestas descoordinadas. </p><p>Los videos, por su parte, pueden evidenciar movimientos faciales incoherentes, desincronización de labios y párpados, o gestos poco humanos. </p><h2>Educación digital y herramientas: claves para enfrentar los riesgos de la IA</h2><p>Especialistas resaltan que la vulnerabilidad frente a los deepfakes y fraudes con IA se debe, en gran medida, a la falta de conocimiento, concienciación y formación, especialmente cuando se realizan varias tareas a la vez. </p><img src="https://www.infobae.com/resizer/v2/S3IQZBA3SVEKDKLTAZILSN7NMA.png?auth=1d7d1d5474e82ca0db56a7237171c82e71cca7619d91891713068e64ba03511d&smart=true&width=1408&height=768" alt="El deepfake permite simular que una persona dice o hace cosas que nunca ocurrieron. 
(Imagen ilustrativa Infobae)" height="768" width="1408"/><p>Aunque existen herramientas para detectar la participación de la IA en la creación de contenidos, Hervé Lambert considera que solo limitan el riesgo, sin eliminarlo por completo. </p><p>Por eso, la <b>educación </b>en escenarios reales y la práctica constante para identificar señales de alerta resultan imprescindibles. Josep Albors lamenta además la tendencia de los usuarios a no contrastar la información en fuentes fiables, lo que aumenta la exposición a engaños. </p><h2>Qué es un deepfake y por qué representa un riesgo digital </h2><p>Un <b>deepfake </b>es un contenido digital manipulado mediante inteligencia artificial, que utiliza técnicas avanzadas de aprendizaje automático para superponer rostros, voces o movimientos de una persona sobre imágenes, videos o audios, logrando resultados extremadamente realistas. </p><img src="https://www.infobae.com/resizer/v2/GWISQKNVANBJJPQQONTTWGZVFM.png?auth=a537bf8e5ec9a2830eafc5ca783561086dfed5255fdd553625316ea12a54d865&smart=true&width=1536&height=1024" alt="Los delincuentes explotan la IA para crear campañas de fraude cada vez más convincentes. 

(Imagen Ilustrativa Infobae)" height="1024" width="1536"/><p>Este tipo de tecnología permite crear simulaciones convincentes en las que una persona parece decir o hacer cosas que nunca ocurrieron en la realidad.</p><p>El auge de los deepfakes ha generado preocupación porque, aunque pueden emplearse en entretenimiento o publicidad, también<b> facilitan la difusión de fraudes, desinformación y suplantaciones de identidad</b>. La dificultad para distinguirlos de contenidos auténticos convierte a los deepfakes en una amenaza creciente para la confianza y la seguridad digital.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/ARW2Q4CDVZFZPHMDF6RDAAPCIA.png?auth=8cbabb4d21aeee4735495bb51efd77438a8fdbf91a3d4f5bca0330b31e70a86c&amp;smart=true&amp;width=1408&amp;height=768" type="image/png" height="768" width="1408"><media:description type="plain"><![CDATA[Las personas mayores de 65 años solo logran identificar un poco más del 50% de los casos. 

(Imagen ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Grok pone fin al contenido de semidesnudos tras las críticas y problemas judiciales]]></title><link>https://www.infobae.com/tecno/2026/01/15/grok-pone-fin-al-contenido-de-semidesnudos-tras-las-criticas-y-problemas-judiciales/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2026/01/15/grok-pone-fin-al-contenido-de-semidesnudos-tras-las-criticas-y-problemas-judiciales/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[La nueva política afecta a todos los usuarios, incluidos los suscriptores de pago de la plataforma X]]></description><pubDate>Thu, 15 Jan 2026 15:06:39 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/MLCRFQ63IRBYVBJ4OIZJUAUD2U.JPG?auth=c2ebe99ff25e442ac378d2f3883dc0dc73805d5d0424b7e400aab46ab2993c69&smart=true&width=800&height=533" alt="FOTO DE ARCHIVO: Los logotipos de xAI y Grok se ven en esta ilustración tomada el 16 de febrero de 2025. REUTERS/Dado Ruvic/Ilustración/Archivo" height="533" width="800"/><p>Grok, el sistema de inteligencia artificial desarrollado <a href="https://www.infobae.com/tecno/2026/01/14/x-podria-recibir-millonaria-multa-por-las-deepfakes-que-compartio-grok-la-ia-de-elon-musk/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/01/14/x-podria-recibir-millonaria-multa-por-las-deepfakes-que-compartio-grok-la-ia-de-elon-musk/">por xAI para la red social X</a>, afronta un cambio de rumbo tras una oleada de críticas y problemas judiciales en distintas partes del mundo. Desde hace pocos días, la herramienta <b>ya no permite a sus usuarios crear ni modificar imágenes de personas reales para mostrar semidesnudos</b> o prendas reveladoras como bikinis. </p><p>Esta decisión, anunciada por la propia compañía a través de sus canales oficiales, responde a la presión social, mediática y legal que ha caído sobre la plataforma de <a href="https://www.infobae.com/tecno/2026/01/13/starlink-para-moviles-llega-oficialmente-a-espana-como-funcionara-este-servicio/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2026/01/13/starlink-para-moviles-llega-oficialmente-a-espana-como-funcionara-este-servicio/">Elon Musk.</a></p><h2>Qué cambia en Grok y para quién</h2><p><b>La función de generación de imágenes de Grok se había convertido en un foco de controversia.</b> Cualquier usuario podía solicitar la creación o edición de fotos de personas reales, muchas veces sin su consentimiento. Esto llevó a una proliferación de imágenes sexualizadas, tanto de figuras públicas como de personas anónimas, y derivó en una respuesta contundente por parte de la empresa.</p><p>De acuerdo con los anuncios de X y xAI, se han implementado <b>medidas tecnológicas para evitar que la cuenta @Grok permita editar imágenes de personas reales en ropa reveladora, como bikinis</b>. La compañía aclara que esta restricción afecta a todos los usuarios, incluidos los suscriptores de pago.</p><img src="https://www.infobae.com/resizer/v2/J4FQZJBS5JHY7GSZCSKURVAJHU.jpg?auth=044045d5a0570c515ec95a3ff913f77db0182339092536c4d630d236e498bcd6&smart=true&width=1920&height=1280" alt="" height="1280" width="1920"/><p>De este modo, la posibilidad de crear o manipular imágenes mediante la mención a la cuenta Grok en X queda limitada a los suscriptores, lo que pretende facilitar la rendición de cuentas si se abusa de la herramienta.</p><p>La medida también incorpora bloqueos geográficos. Según la propia X, se ha “<b>geobloqueado la capacidad de todos los usuarios para generar imágenes de personas reales en bikini, ropa interior y prendas similares</b> en aquellas jurisdicciones donde es ilegal”.</p><p>A pesar de las restricciones, <b>medios como The Verge</b> <b>han comprobado que aún es posible generar imágenes semidesnudas</b>, lo que pone en duda la eficacia inmediata de las nuevas barreras tecnológicas. Según sus pruebas, usando una cuenta gratuita, los periodistas lograron crear imágenes de personas en bikini, incluso después de la supuesta entrada en vigor de la restricción.</p><h2>Por qué tuvieron que hacer estos cambios en Grok</h2><p><b>La decisión de limitar la capacidad de Grok para crear imágenes sexualizadas surge en un contexto de</b> <b>amplia presión social y legal</b>. La comunidad científica, varias figuras públicas y numerosos usuarios anónimos habían denunciado el uso de la inteligencia artificial para la generación de imágenes no consentidas, calificando la práctica de invasiva y sexualizante. El problema no solo afectaba a celebridades, sino también a menores y adultos ajenos a la vida pública.</p><img src="https://www.infobae.com/resizer/v2/2MLBUWBRMFHEBDIHDFSBNE6JPA.JPG?auth=93b712e4da1e8fdd371d5ee15c10c7276f907ebd5fbe141f9e773190f704aad3&smart=true&width=3000&height=2000" alt="FILE PHOTO: A 3D-printed miniature model of Elon Musk and xAI logo are seen in this illustration created on February 16, 2025. REUTERS/Dado Ruvic/Illustration/File Photo" height="2000" width="3000"/><p>En paralelo a las quejas sociales, se abrieron <b>procesos judiciales y medidas legales</b> en varias partes del mundo. Malasia e Indonesia fueron los primeros países en prohibir el uso de Grok por la creación de imágenes desnudas o semidesnudas. </p><p>En <b>Francia, Reino Unido, Australia, Irlanda e India</b>, así como en el ámbito de la <b>Comisión Europea</b>, se han anunciado investigaciones contra X, muchas de ellas centradas en la generación de imágenes sexualizadas o “deepfakes” de menores.</p><p>En el Reino Unido, el regulador de comunicaciones Ofcom abrió una investigación, mientras que el gobierno británico impulsa una ley que convierte en delito la creación de imágenes íntimas “deepfake” no consentidas. </p><img src="https://www.infobae.com/resizer/v2/GA4OGYSXKBHZ5ATYJGTHWODMLY.jpg?auth=a0ec7b68970719964cd842259a2e8adfc0b5830294b5becfcd520e4390c7e20b&smart=true&width=1920&height=1302" alt="22/05/2024 El 'chatbot' de X, Grok.
POLITICA 
XAI
" height="1302" width="1920"/><p>El primer ministro Keir Starmer declaró que X está tomando medidas para “asegurar el pleno cumplimiento de la ley británica”, aunque aclaró que el gobierno no bajará la guardia y exigirá resultados verificables.</p><p>El comunicado oficial de X subraya el compromiso con la seguridad y la “tolerancia cero” ante la explotación sexual infantil, la desnudez no consentida y cualquier contenido sexual no deseado. <b>La empresa asegura que elimina contenido violatorio de manera prioritaria, reporta cuentas que buscan material de explotación sexual infantil y colabora activamente con las autoridades legales.</b></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/J4FQZJBS5JHY7GSZCSKURVAJHU.jpg?auth=044045d5a0570c515ec95a3ff913f77db0182339092536c4d630d236e498bcd6&amp;smart=true&amp;width=1920&amp;height=1280" type="image/jpeg" height="1280" width="1920"/></item><item><title><![CDATA[Arturo Calle alertó por videos fraudulentos que suplantan a su fundador: “Engañar y estafar a sus potenciales víctimas”]]></title><link>https://www.infobae.com/colombia/2025/12/11/empresa-arturo-calle-alerta-sobre-videos-fraudulentos-que-suplantan-a-su-fundador-enganar-y-estafar-a-sus-potenciales-victimas/</link><guid isPermaLink="true">https://www.infobae.com/colombia/2025/12/11/empresa-arturo-calle-alerta-sobre-videos-fraudulentos-que-suplantan-a-su-fundador-enganar-y-estafar-a-sus-potenciales-victimas/</guid><dc:creator><![CDATA[Frank  Saavedra]]></dc:creator><description><![CDATA[Un comunicado advierte sobre videos manipulados con inteligencia artificial que buscan inducir a usuarios a invertir dinero  en entidades financieras falsas, utilizando la imagen del empresario]]></description><pubDate>Thu, 11 Dec 2025 15:55:22 +0000</pubDate><content:encoded><![CDATA[<p>La empresa Arturo Calle emitió una alerta urgente tras detectar la circulación masiva de videos fraudulentos en redes sociales y plataformas digitales, en los que se suplanta la imagen y la voz de su fundador, Arturo Calle, mediante el uso de inteligencia artificial. </p><p>Estos materiales, generados con tecnologías de <i>deepfake</i>, <b>buscan inducir a los usuarios a invertir en supuestas oportunidades financieras que son completamente falsas y no cuentan con ningún tipo de respaldo ni autorización por parte del empresario ni de la organización</b>.</p><p><b>Ahora puede seguirnos en</b><a href="https://www.facebook.com/infobaecolombia" target="_blank" rel=""><i><b> Facebook</b></i></a><b> y en nuestro</b><a href="https://whatsapp.com/channel/0029Va4oNEALikgEL4Y8mb2K" target="_blank" rel=""><i><b> WhatsApp Channel</b></i></a></p><p>En su comunicado oficial, la Comercializadora Arturo Calle SAS <b>enfatizó que no promueve, patrocina ni realiza ningún tipo de captación de dinero o invitación a invertir a través de plataformas digitales o redes sociales</b>. </p><p>La empresa advirtió que los videos en cuestión explotan el prestigio y la buena imagen tanto de la marca como de sus figuras públicas para generar una confianza indebida, con el único propósito de engañar y estafar a potenciales víctimas. </p><img src="https://www.infobae.com/resizer/v2/4ZANSOJSRRDJRMWDVUFFQC3BK4.jpg?auth=f5706ea6470d62ae14780833421d63c67daab16bb9b34d4e259ef3c00d76e643&smart=true&width=900&height=1600" alt="Arturo Calle SAS niega cualquier vínculo con plataformas digitales que prometen rendimientos financieros acelerados o garantizados - crédito @Arturo_Calle/X" height="1600" width="900"/><p>Además, la compañía instó a la ciudadanía y a los medios de comunicación a tomar medidas de precaución y a no reproducir ni difundir estos contenidos.</p><p>Uno de los videos fraudulentos, que ha alcanzado hasta cinco millones de vistas en Youtube, utiliza fragmentos de una entrevista que Arturo Calle concedió a <i>La República</i> en febrero de 2014, así como imágenes del presentador Jorge Alfredo Vargas extraídas de una emisión de su programa <i>Voz populi, </i>de Blu Radio. </p><p>En el material manipulado, la voz y la imagen de Vargas, alteradas con inteligencia artificial, afirman que “<b>los colombianos que abran una cuenta con $430.000 antes de fin de mes, podrán ganar fácilmente 12 millones de pesos a la semana”</b>, para luego presentar al empresario prometiendo rendimientos financieros acelerados o garantizados a corto plazo. </p><p>La empresa subrayó que Arturo Calle no ha autorizado participar en la producción, difusión o promoción de dicho material audiovisual.</p><img src="https://www.infobae.com/resizer/v2/QU4AQLRU5BHE3NXFASYFLLVZHY.jpeg?auth=1d9f8e46cf4b91830fc8318c6df2cfce0d57a653324fb07768de9124068b4a7a&smart=true&width=1186&height=702" alt="Uno de los videos manipulados, con la imagen de Arturo Calle, alcanzó 5 millones de vistas en YouTube, generando preocupación por su alcance masivo - crédito captura pantalla/tecnología y avances2/YouTube" height="702" width="1186"/><p>La organización reiteró que desconoce y rechaza cualquier estrategia que, utilizando el nombre de Arturo Calle, prometa retornos financieros acelerados o garantizados. </p><p>En comunicado dice: “<b>La suplantación de identidad busca explotar el prestigio y la buena imagen de la marca y de sus figuras públicas para generar una confianza indebida</b>, con el único propósito de engañar y estafar a potenciales víctimas”.</p><p>Ante la proliferación de estos fraudes, la empresa recomendó a los usuarios desestimar de inmediato cualquier contenido de esta naturaleza, incluso si aparentemente está respaldado por medios reconocidos. </p><p>Además, aconsejó abstenerse de hacer clic en enlaces o proporcionar información personal, credenciales de acceso o datos financieros en respuesta a estas publicaciones. Arturo Calle SAS solicitó a los ciudadanos reportar este tipo de publicaciones en las plataformas digitales y presentar las denuncias correspondientes ante las autoridades judiciales competentes.</p><img src="https://www.infobae.com/resizer/v2/RFXDCUQRNNG4BBKRQM4O2W3GK4.png?auth=dd093878ba26f1d86600b5c5a6b8ff1ec9b4c45c4bc20a6df62054386b8a8092&smart=true&width=1920&height=1080" alt="La organización insta a denunciar ante las autoridades cualquier contenido que prometa inversiones a nombre de la marca - crédito @Arturo_Calle/X" height="1080" width="1920"/><p>La compañía también ofreció pautas para identificar videos generados con inteligencia artificial: <b>observar con atención los rostros, manos y la sincronización entre imagen y audio</b>, ya que suelen presentar errores sutiles en expresiones faciales, parpadeos o movimientos de manos; analizar la iluminación, las sombras y la consistencia del fondo, pues las irregularidades pueden ser señales de manipulación; verificar la naturalidad del parpadeo y el movimiento de los ojos; revisar la fuente y el contexto del video; y utilizar herramientas automáticas de detección de <i>deepfakes</i>.</p><p>En su mensaje final, Arturo Calle SAS reiteró: <b>“No respaldamos ni promovemos ningún tipo de inversión o plataforma, tampoco promovemos ninguna estrategia de grandes rendimientos a corto plazo por medio de videos o sitios fraudulentos”</b>. </p><p>La empresa invitó a la ciudadanía a no interactuar con estos contenidos y a denunciar ante las autoridades si recibe mensajes de supuestas oportunidades para invertir a nombre de la compañía.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/RFXDCUQRNNG4BBKRQM4O2W3GK4.png?auth=dd093878ba26f1d86600b5c5a6b8ff1ec9b4c45c4bc20a6df62054386b8a8092&amp;smart=true&amp;width=1920&amp;height=1080" type="image/png" height="1080" width="1920"><media:description type="plain"><![CDATA[La compañía Arturo Calle SAS advierte que no autoriza la captación de dinero ni invita a invertir a través de redes sociales o plataformas digitales - crédito @Arturo_Calle/X]]></media:description><media:credit role="author" scheme="urn:ebu">@Arturo_Calle</media:credit></media:content></item><item><title><![CDATA[Japón acusa a OpenAI de generar contenido muy similar al de algunos anime con Sora 2, infringiendo derechos de autor]]></title><link>https://www.infobae.com/america/agencias/2025/12/01/japon-acusa-a-openai-de-generar-contenido-muy-similar-al-de-algunos-anime-con-sora-2-infringiendo-derechos-de-autor/</link><guid isPermaLink="true">https://www.infobae.com/america/agencias/2025/12/01/japon-acusa-a-openai-de-generar-contenido-muy-similar-al-de-algunos-anime-con-sora-2-infringiendo-derechos-de-autor/</guid><dc:creator><![CDATA[Newsroom Infobae]]></dc:creator><description><![CDATA[La Asociación Japonesa de Radiodifusores Comerciales advierte que la reciente tecnología de inteligencia artificial para videos, difundida por OpenAI, habría replicado material protegido sin consentimiento y plantea riesgos legales y para la industria creativa japonesa]]></description><pubDate>Wed, 03 Dec 2025 13:03:31 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/ID2VN34G4RDPPKXACTANWJWAN4.jpg?auth=0b0e9b410905a1bf533f82172a14250aa28fe3bb032169d65777509f773bf246&smart=true&width=1920&height=1247" alt="" height="1247" width="1920"/><p>La Asociación Japonesa de Radiodifusores Comerciales (JBA) ha alertado sobre la posibilidad de que la tecnología Sora 2 de OpenAI haya generado videos que replican de forma muy similar, e incluso idéntica, escenas y contenidos originales protegidos por derechos de autor, pertenecientes a productoras japonesas de anime y otros sectores de la industria creativa. Según informó el diario Asahi Shimbun, la asociación, que representa a 207 empresas de radiodifusión en el país, ha manifestado sus inquietudes sobre el uso no autorizado de material protegido durante la fase de entrenamiento del modelo de inteligencia artificial desarrollado por la empresa estadounidense.</p><p>El comunicado difundido por la JBA y citado por Asahi Shimbun detalló que Sora 2 permite la producción de videos cuya estética, composición y características audiovisuales resultan prácticamente indistinguibles de las obras originales generadas por las compañías miembro. La asociación consideró que esta situación se produce porque OpenAI ha utilizado contenido original propiedad de las empresas japonesas en el proceso de formación de su modelo, sin contar con el consentimiento legalmente requerido. De acuerdo con lo expresado por la JBA, cualquier entrenamiento de herramientas de inteligencia artificial generativa con material de propiedad industrial y derechos de autor no solo constituye una violación legal, sino que también ocasiona daños civiles adicionales como perjuicios a la marca y posibles casos de difamación.</p><p>La JBA expuso en su declaración que la tecnología desarrollada por OpenAI, capaz desde septiembre de 2024 de crear paisajes sonoros realistas, sincronizar diálogos con imágenes y mejorar otros aspectos técnicos, ha facilitado la difusión en internet de videos resultado de este proceso. La organización advirtió que las partes perjudicadas incluyen no solo a las empresas, sino también a autores originales, guionistas, compositores y equipos de producción, cuyos intereses económicos y personales quedarían expuestos a daños significativos.</p><p>En palabras de la JBA recogidas por Asahi Shimbun, el uso no autorizado de estos contenidos generados por IA "podría destruir la cultura y el ecosistema de producción de contenidos de Japón". La organización señaló que la problemática no se limita a la industria del anime, sino que también afecta a otros géneros de contenidos, como los programas informativos, cuya reproducción no autorizada podría representar una alteración importante en la vida pública. El comunicado advirtió sobre posibles consecuencias adicionales, como la generación de videos deepfake, imágenes falsas de catástrofes o políticos, y discursos de odio, fenómenos que podrían aumentar la ansiedad social, distorsionar la percepción pública y dañar la credibilidad de la información transmitida por las emisoras afiliadas a la JBA.</p><p>De acuerdo con lo publicado por Asahi Shimbun, la JBA transmitió varias recomendaciones dirigidas tanto a OpenAI como a otras empresas desarrolladoras de inteligencia artificial generativa. Entre sus sugerencias incluyó la aplicación de mecanismos para impedir el uso no autorizado de contenidos protegidos tanto para el entrenamiento de modelos como para la creación de nuevos contenidos audiovisuales similares a los originales. Además, la organización indicó la necesidad de eliminar de manera proactiva todo contenido generado y distribuido que reproduzca material protegido, incluso si ya circula a través de plataformas o páginas web gestionadas por los propios desarrolladores de estas tecnologías.</p><p>Finalmente, tal como detalló Asahi Shimbun, la JBA instó a las empresas responsables del desarrollo de inteligencia artificial a atender de forma transparente y responsable las reclamaciones de las entidades titulares de los derechos vulnerados, enfatizando la obligación de responder de manera sincera ante posibles incumplimientos relacionados con derechos de autor.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/ID2VN34G4RDPPKXACTANWJWAN4.jpg?auth=0b0e9b410905a1bf533f82172a14250aa28fe3bb032169d65777509f773bf246&amp;smart=true&amp;width=1920&amp;height=1247" type="image/jpeg" height="1247" width="1920"/></item><item><title><![CDATA[ChatGPT cumple 3 años: de buscador y generador de contenido a compañero de trabajo y confidente]]></title><link>https://www.infobae.com/america/agencias/2025/11/29/chatgpt-cumple-3-anos-de-buscador-y-generador-de-contenido-a-companero-de-trabajo-y-confidente/</link><guid isPermaLink="true">https://www.infobae.com/america/agencias/2025/11/29/chatgpt-cumple-3-anos-de-buscador-y-generador-de-contenido-a-companero-de-trabajo-y-confidente/</guid><dc:creator><![CDATA[Newsroom Infobae]]></dc:creator><description><![CDATA[Con 800 millones de usuarios en todo el mundo, la herramienta de OpenAI ha pasado de simples respuestas automáticas al dominio de la multimodalidad y el razonamiento avanzado, transformando su impacto en el ámbito profesional, educativo y personal]]></description><pubDate>Mon, 01 Dec 2025 10:02:08 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/T64PCIBULFEMTNDJUFHKXSDXEM.jpg?auth=b5e01fd89ed6406c31ac9cabeb43c98da1be8a10650151e0ab0d9e06c902060a&smart=true&width=1920&height=1417" alt="" height="1417" width="1920"/><p>La función de ChatGPT como experto en múltiples disciplinas y su capacidad para elaborar programas completos de manera autónoma han sido características incorporadas tras la llegada de GPT-5, disponible desde el pasado verano. Esta evolución refleja el desarrollo acelerado de las capacidades de la inteligencia artificial de OpenAI, según informó Europa Press, donde se destaca que ahora el chatbot es capaz de mantener interacciones más naturales, ofrecer respuestas adaptadas a distintas personalidades y resolver problemas complejos en campos como la ciencia, la programación y las matemáticas. ChatGPT cumple este domingo tres años desde su lanzamiento, un período en el que ha transformado radicalmente su impacto en ámbitos educativos, laborales y personales.</p><p>Europa Press detalló que la herramienta, utilizada por cerca de 800 millones de personas en todo el mundo, ha superado su función inicial de generación de contenido para posicionarse como un recurso personalizado en distintos contextos. El diseño conversacional de ChatGPT permite que los usuarios lo consulten no solo como buscador, sino también como colaborador profesional, asesor personal y confidente. La interacción multimodal y el razonamiento avanzado se han consolidado como sus principales rasgos distintivos.</p><p>Desde su aparición, ChatGPT basó su funcionamiento en modelos de lenguaje extensos, comenzando con GPT-3.5, que ya facilitaba respuestas coherentes y la simulación de un diálogo realista. Con la llegada de GPT-4, la plataforma incorporó habilidades para comprender no solo texto, sino también imágenes y voz. Esta expansión permitió que las conversaciones con la inteligencia artificial dejaran de limitarse al texto escrito, integrando así más formatos de entrada y aumentando la riqueza y profundidad de la interacción entre usuario y sistema.</p><p>OpenAI reforzó su apuesta por el razonamiento al lanzar modelos enfocados exclusivamente en este ámbito, denominados serie “o”. Europa Press explicó que estas versiones dedican más tiempo al procesamiento de cada consulta, lo que mejora la calidad de las soluciones aportadas, especialmente en la resolución de retos complejos. El sistema también avanzó en la navegación autónoma en internet mediante los modelos agente o3 y o4-mini, calificados por la compañía como capaces de decidir cuándo y cómo emplear diversas herramientas para producir respuestas detalladas y en menos de un minuto.</p><p>El desarrollo de estas funciones permitió que ChatGPT se posicionara como un experto en distintas áreas y pudiera generar, a partir de pocas instrucciones, programas completos y detallados. La evolución de la herramienta también abarcó mejoras en la naturalidad de sus interacciones con los usuarios, llegando a modificar respuestas de acuerdo a la personalidad de quien consulta, según publicó Europa Press.</p><p>No obstante, la difusión masiva de ChatGPT viene acompañada de desafíos. Uno de los principales se refiere al fenómeno conocido como alucinaciones o engaños, donde el chatbot crea información falsa o presenta datos incorrectos. Este problema, como consignó Europa Press, no afecta solo a ChatGPT, sino que también aparece en otros sistemas similares como Gemini, Claude, Perplexity y Grok. La dificultad principal radica en la tendencia de los usuarios a considerar estos chatbots como fuentes fiables, lo que podría llevar a la difusión y aceptación de información falsa.</p><p>Para abordar estos riesgos, OpenAI y otras empresas han implementado estrategias que buscan reforzar el entrenamiento de sus modelos, además de exigir que las respuestas incluyan las fuentes consultadas. Asimismo, se han perfeccionado los filtros que indican cuando una petición no puede completarse, y se rechazan preguntas que puedan resultar peligrosas para los usuarios. Europa Press señaló que estas medidas pretenden reducir el margen de error y mejorar la transparencia en el uso de la herramienta.</p><p>Otro desafío surgido con el uso de sistemas conversacionales como ChatGPT afecta a la salud mental de algunos usuarios. Europa Press reportó que la dependencia emocional de ciertos individuos hacia el chatbot, en ocasiones empleado como confidente, ha derivado en complicaciones, particularmente entre adolescentes. OpenAI ha afirmado que GPT-5 cuenta con una mejor identificación de señales durante la conversación que podrían evidenciar problemas emocionales o de salud mental, limitando así el riesgo de respuestas que puedan agravar la situación. Además, la compañía añadió funciones que permiten la supervisión de las interacciones por parte de padres y tutores, junto con mecanismos que restringen el acceso a determinados contenidos y preparan la verificación de la edad para adaptar la experiencia a menores.</p><p>La importancia de contar con salvaguardias adecuadas cobró actualidad luego de la demanda presentada en Estados Unidos por una familia que responsabilizó a ChatGPT en el suicidio de un adolescente, debido a la falta de efectividad de los sistemas de protección. Según el reporte de Europa Press, este caso subrayó la necesidad de mejorar las herramientas de supervisión y control, un proceso que OpenAI emprendió tras conocerse el incidente.</p><p>Las cuestiones legales sobre derechos de autor permanecen como un desafío desde el inicio de ChatGPT. El medio Europa Press recordó que el entrenamiento de los modelos de inteligencia artificial implica procesar una enorme cantidad de datos, entre los que se incluyen textos, imágenes, vídeos y audios que a veces no proceden de fuentes de libre utilización. Este hecho ha llevado a que distintas voces alerten sobre la posible infracción de derechos de propiedad intelectual.</p><p>Por último, la seguridad cibernética representa otra preocupación clave. Según Europa Press, desde las primeras fases de desarrollo de ChatGPT se detectó su potencial para generar malware, convirtiéndose en una herramienta que también puede ser empleada para la distribución de campañas maliciosas y la producción de contenido con información manipulada. OpenAI y otros desarrolladores han introducido restricciones y filtros, pero los riesgos asociados no han desaparecido completamente.</p><p>ChatGPT también ha sido vinculado a la generación de vídeos y fotografías que simulan situaciones reales y reproducciones fidedignas de voces de personalidades públicas, denominadas “deepfakes”. Europa Press precisó que estos recursos se utilizan para la difusión de noticias falsas, desinformación, propaganda y contenidos pornográficos, así como para cometer fraudes financieros.</p><p>Durante sus tres años de existencia, ChatGPT ha experimentado una transformación constante, pasando de ser un generador de contenido a uno de los compañeros tecnológicos más avanzados para usuarios de distintas edades y profesiones. Las mejoras introducidas persiguen robustecer la fiabilidad de la herramienta y frenar los posibles usos indebidos mientras continúan surgiendo nuevos debates y desafíos en el camino de la inteligencia artificial conversacional.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/T64PCIBULFEMTNDJUFHKXSDXEM.jpg?auth=b5e01fd89ed6406c31ac9cabeb43c98da1be8a10650151e0ab0d9e06c902060a&amp;smart=true&amp;width=1920&amp;height=1417" type="image/jpeg" height="1417" width="1920"/></item><item><title><![CDATA[Descubre el horror de una familia víctima de imágenes de desnudos creadas con IA: una niña de 14 años resultó afectada]]></title><link>https://www.infobae.com/tecno/2025/11/07/descubre-el-horror-de-una-familia-victima-de-imagenes-de-desnudos-creadas-con-ia-una-nina-de-14-anos-resulto-afectada/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/11/07/descubre-el-horror-de-una-familia-victima-de-imagenes-de-desnudos-creadas-con-ia-una-nina-de-14-anos-resulto-afectada/</guid><dc:creator><![CDATA[Renzo Gonzales]]></dc:creator><description><![CDATA[El caso impulsó cambios legales y abrió el debate sobre la protección infantil en el ámbito digital]]></description><pubDate>Fri, 07 Nov 2025 21:54:59 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/MN43YWAK2BEGPFCTF4CLFV3XDQ.jpg?auth=72461ac2d5d88d57137f57d568af50556bf876fe94bcccedd4b2674ee906f934&smart=true&width=1456&height=816" alt="La familia intentó detener la difusión, pero la viralidad de las imágenes frustró cualquier tentativa de control. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>La habitual tranquilidad de Almendralejo, una localidad de 30.000 habitantes en Badajoz, <b>España</b>, se interrumpió en septiembre de 2023 por la difusión de<a href="https://www.infobae.com/tecno/2025/11/02/como-saber-si-un-video-viral-fue-creado-con-inteligencia-artificial-o-no/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/11/02/como-saber-si-un-video-viral-fue-creado-con-inteligencia-artificial-o-no/"> <b>imágenes de menores generadas con inteligencia artificial</b></a>, un suceso que provocó conmoción en la comunidad escolar. El caso, que impactó a casi treinta adolescentes, supuso un antes y un después en la protección de menores ante los <a href="https://www.infobae.com/tecno/2025/11/07/ansiedad-y-depresion-las-consecuencias-de-los-ninos-al-pasar-tiempo-frente-a-redes-sociales-videojuegos-y-celulares/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/11/07/ansiedad-y-depresion-las-consecuencias-de-los-ninos-al-pasar-tiempo-frente-a-redes-sociales-videojuegos-y-celulares/"><b>riesgos de la tecnología digital</b></a>.</p><p>La <b>Agencia Española de Protección de Datos (AEPD)</b> impuso una sanción económica a uno de los menores responsables. Esta es la primera multa de este tipo en Europa, según confirmó la agencia a ABC.</p><p>El incidente salió a la luz después de que Pedro, padre de una de las víctimas, descubriera que su hija de 14 años había sido incluida en un grupo de WhatsApp del instituto IES Santiago Apóstol, donde circulaban imágenes manipuladas en las que aparecía desnuda junto a otras compañeras. Aunque las fotografías eran falsas y elaboradas con inteligencia artificial, el daño emocional resultó <b>inmediato y profundo</b>.</p><p>Pedro relató al medio español que, al ver una de las imágenes, supo que se trataba de un montaje digital: “Habían usado su cara y su cuerpo y la habían convertido en otra cosa”. La familia intentó detener la difusión contactando a otros padres, al colegio y a la Policía, pero la viralidad de los mensajes impidió cualquier control efectivo.</p><p>“Fue como intentar recoger agua con las manos”, recordó Pedro, quien destacó el impacto psicológico que la situación tuvo en su hija y en el entorno familiar.</p><img src="https://www.infobae.com/resizer/v2/VTU2ZFNTWRD3TAQI6YN3EZZCGQ.jpg?auth=ff7602863ebef87145c56e958c6c487b8bf17d86f63a8c2d02cb635d0e4053d7&smart=true&width=1456&height=816" alt="La menor teme encontrarse con conocidos que hayan visto las imágenes. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><h2>Sanción pionera y respuestas contrapuestas</h2><p>La resolución de la <b>AEPD</b>, comunicada en abril de 2025, fijó una multa de 2.000 euros para uno de los menores que compartió las imágenes, reducida a 1.200 euros tras el reconocimiento de responsabilidad y el pronto pago efectuado por los padres del sancionado el cinco de abril de 2025.</p><p>La resolución no identificó públicamente a las víctimas ni al menor sancionado y eximió de responsabilidad a la aplicación utilizada, <b>ClothOff</b>, así como a las plataformas de mensajería. Este caso marca la primera sanción económica impuesta por una agencia europea por la distribución de contenido falso de menores creado con inteligencia artificial.</p><p>Las reacciones de las familias afectadas han sido dispares. <b>Pedro</b> agradeció la intervención de las autoridades, pero expresó su decepción por la cuantía de la multa: “Destruir la salud mental de mi hija les ha salido por solo 1.200 euros”. Sostuvo que el daño, en una comunidad pequeña como Almendralejo, se amplifica, y añadió que su hija, antes extrovertida y confiada, ahora teme usar el móvil o encontrarse con conocidos que hayan visto las imágenes.</p><img src="https://www.infobae.com/resizer/v2/OGWLUPVG5JBARANDF7VYQMJ6IE.jpg?auth=cbbf7d72f308fd4cd01c29e1a2b6bd6e422da3e1c2a5e3424da2cb5c8baee5d7&smart=true&width=1344&height=768" alt="Los padres están preocupados por el impacto del episodio en la salud mental de su hija. (Imagen Ilustrativa Infobae)" height="768" width="1344"/><p>Por su parte, <b>Miriam Al Adib</b>, madre de otra de las menores, mostró satisfacción con el proceso y la resolución: “Todo está bien como está”. Consideró que la sentencia fue justa y necesaria, y explicó que el objetivo nunca fue perjudicar a los menores implicados, sino buscar justicia y una sentencia que reconociera que lo ocurrido fue un delito de pornografía infantil.</p><p>Subrayó que pretendían “dignificar a sus hijas y evitar que el caso quedara impune”, ya que ignorar lo sucedido habría enviado un mensaje peligroso. Además, insistió en la importancia de que los responsables aprendan de lo ocurrido más allá de pagar una multa: “<b>Queremos que esos niños se eduquen, no que paguen dinero</b>”.</p><p>El impacto psicológico y social en las víctimas y la comunidad ha sido <b>profundo</b>. Pedro señaló que su hija ya no es la misma y que la familia necesitó apoyo psicológico. Miriam consideró que el proceso permitió “sanar la herida”, que su hija no ha sufrido secuelas y que los menores responsables no han actuado con arrogancia tras la resolución.</p><img src="https://www.infobae.com/resizer/v2/XNSCEEP4P5BE7FLBQMQPM5E6FQ.jpg?auth=87d25bc9d5bb38ad48273bd56bbdbcac10ac157b1fd3e384521320158fc9aa02&smart=true&width=1366&height=768" alt="Con el auge de la inteligencia artificial. se han proliferado los deepfakes. (Imagen Ilustrativa Infobae)" height="768" width="1366"/><h2>Precedente legal y cambios institucionales</h2><p>El caso de <b>Almendralejo</b> ha tenido repercusiones legales en España y Europa. Según <i>ABC</i>, tras este episodio la difusión de imágenes falsas de menores generadas con inteligencia artificial fue incorporada como delito de pornografía infantil en España. Miriam Al Adib integró el comité de cincuenta expertos del Ministerio de Juventud e Infancia que elaboró el informe base para la nueva legislación sobre el uso de imágenes falsas.</p><p>La resolución de la <b>AEPD</b> y la coordinación institucional han creado un precedente para la protección de menores frente a los riesgos de la inteligencia artificial y favorecido cambios legislativos para abordar delitos similares. La experiencia de Almendralejo demostró que una respuesta institucional y social decidida puede ofrecer <b>esperanza y justicia</b> a las comunidades ante desafíos tecnológicos emergentes.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/MN43YWAK2BEGPFCTF4CLFV3XDQ.jpg?auth=72461ac2d5d88d57137f57d568af50556bf876fe94bcccedd4b2674ee906f934&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[La familia intentó detener la difusión, pero la viralidad de las imágenes frustró cualquier tentativa de control. (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Suplantan a Jensen Huang, CEO de Nvidia: robaron a miles de personas con un video de YouTube]]></title><link>https://www.infobae.com/tecno/2025/10/30/suplantan-a-jensen-huang-ceo-de-nvidia-robaron-a-miles-de-personas-con-un-video-de-youtube/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/10/30/suplantan-a-jensen-huang-ceo-de-nvidia-robaron-a-miles-de-personas-con-un-video-de-youtube/</guid><dc:creator><![CDATA[Dylan Escobar Ruiz]]></dc:creator><description><![CDATA[Un avatar digital del líder tecnológico, creado con inteligencia artificial, protagonizó una estafa masiva, donde invitaba a miles de espectadores a invertir en criptomonedas]]></description><pubDate>Thu, 30 Oct 2025 23:14:36 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/LPCTO3AYZBEHFK6L5RJTLCDFYM.JPG?auth=2c4f7816d0f23395ac4d461e404efd2e45e95ecf8e884681d2518bfd321e4a7c&smart=true&width=4000&height=2667" alt="La suplantación de figuras públicas es un factor común en estos delitos para aumentar la credibilidad. (Foto: REUTERS/Ann Wang/File Photo)" height="2667" width="4000"/><p><a href="https://www.infobae.com/tecno/2025/09/03/trabajador-por-creer-en-un-video-hecho-con-ia-hizo-perder-a-su-empresa-25-millones-de-dolares/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/09/03/trabajador-por-creer-en-un-video-hecho-con-ia-hizo-perder-a-su-empresa-25-millones-de-dolares/">El reciente uso de tecnología deepfake para suplantar la identidad de Jensen Huang</a>, CEO de Nvidia, en una transmisión fraudulenta de YouTube, ha puesto en evidencia la sofisticación de las estafas digitales y la vulnerabilidad de miles de usuarios ante estos engaños. </p><p><a href="https://www.infobae.com/tecno/2025/10/27/una-mujer-fue-enganada-con-un-video-deepfake-para-robarle-su-camioneta-nueva-modalidad-de-engano/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/10/27/una-mujer-fue-enganada-con-un-video-deepfake-para-robarle-su-camioneta-nueva-modalidad-de-engano/">Más de 100.000 personas fueron víctimas de este fraude</a>, que coincidió con la celebración real de la GPU Technology Conference (GTC), lo que otorgó una apariencia de legitimidad al evento falso.</p><h2>Por qué miles de personas cayeron en este fraude que suplantó al CEO de Nvidia</h2><p>La transmisión, <b>emitida por un canal denominado NVIDIA LIVE</b>, se lanzó de manera simultánea a la conferencia oficial de la compañía referente en GPUs y computación avanzada.</p><img src="https://www.infobae.com/resizer/v2/7D7OAG36FZFIDM4U5PNY2MZH44.JPG?auth=915b343a873ba3427f14a46d2a40b944c0c8db14bc15d5624f547d289cb30a0f&smart=true&width=3500&height=2335" alt="La plataforma ya bajó esa transmisión y el canal que atentaba contra sus usuarios. (Foto:  REUTERS/Dado Ruvic/Illustration/File Photo)" height="2335" width="3500"/><p><b>Este detalle estratégico permitió que la emisión fraudulenta se posicionara por encima del canal auténtico de Nvidia en los resultados de búsqueda de YouTube</b>, lo que incrementó su visibilidad y atrajo a una audiencia que llegó a quintuplicar la del evento real. </p><p>Durante la retransmisión, un avatar digital de Jensen Huang, <b>generado mediante inteligencia artificial</b>, simuló un discurso en el que se anunciaba un supuesto “evento de adopción masiva de criptomonedas”. </p><p>El falso directivo invitaba a los espectadores a enviar bitcoin o ethereum a una dirección específica, prometiendo duplicar los activos recibidos. Un código QR en pantalla dirigía a los usuarios a una página web vinculada a la estafa.</p><h2>Cómo se usó la inteligencia artificial para darle mayor credibilidad al deepfake</h2><img src="https://www.infobae.com/resizer/v2/L7EABDX35NGDZDIQWOU4UOC2M4.png?auth=55e1470080056e213028158b5b12724afea9754b1360fccabe604106015ae403&smart=true&width=1536&height=1024" alt="Esta tecnología permite replicar varias características de una persona. (Imagen Ilustrativa Infobae)" height="1024" width="1536"/><p><b>La calidad del deepfake resultó determinante para el éxito del engaño.</b> Los expertos en ciberseguridad han destacado que la sincronización de voz, los gestos y el realismo visual del avatar alcanzaron un nivel sin precedentes, lo que dificultó la detección del fraude por parte de los espectadores. </p><p>Según los analistas citados por El Confidencial, este caso demuestra la capacidad de las herramientas de IA generativa para imitar figuras públicas con una precisión que plantea serios desafíos para la seguridad digital. </p><p><b>Los especialistas coinciden en que se trató de un esquema clásico de phishing</b>, adaptado a un formato audiovisual y potenciado por la tecnología deepfake.</p><h2>Qué fue lo que realmente trató el evento de Nvidia</h2><img src="https://www.infobae.com/resizer/v2/TW6TCS6LJFD2BH6L7WZM2K3RHQ.JPG?auth=ae623c470ed134fb715dc593ed5887515060d27ee4447825d974b869508c5349&smart=true&width=800&height=533" alt="La empresa anunció varias estrategias para potenciar el desarrollo de IA. (Foto: REUTERS/Dado Ruvic/Ilustración/Foto de archivo)" height="533" width="800"/><p>En la conferencia oficial, <b>el verdadero Jensen Huang presentó las novedades de la compañía en inteligencia artificial y centros de datos</b>, anunciando inversiones estratégicas en robótica y una colaboración con Nokia.</p><p>Además, el ejecutivo subrayó el papel de Nvidia en el desarrollo de sistemas de aprendizaje automático. Sin embargo, se puede decir que la magnitud del fraude digital desvió la atención del contenido genuino del evento, afectando la percepción pública y la cobertura mediática.</p><h2>Cómo saber si un video es real o está manipulado por inteligencia artificial</h2><p>El Instituto Nacional de Ciberseguridad de España (INCIBE) ha publicado una serie de medidas para identificar deepfakes, fake news y otras amenazas potenciadas por inteligencia artificial, <b>que solo buscan manipular o robar datos y dinero a los usuarios.</b></p><img src="https://www.infobae.com/resizer/v2/7ABC3EAJFVAPPHJFXZ7ZOBC6NI.jpg?auth=2e64a42325c2cd19a5b6d4dd2a717834a1d35dfe88368503995613a04546a65a&smart=true&width=1456&height=816" alt="La atención a cada detalle permite reducir los casos de afectados por estos ataques. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Entre los indicios que ayudan a detectar estos montajes audiovisuales, el INCIBE sugiere desconfiar de videos con títulos sensacionalistas o alarmantes, <b>examinar a detalle la imagen en busca de inconsistencias en sombras</b>, color de piel o gestos, y prestar atención a la sincronización entre el audio y la imagen.</p><p>Asimismo, <b>advierte que los videos de corta duración suelen facilitar la ocultación de errores propios de los deepfakes.</b> El instituto sugiere utilizar el sentido común y contrastar la información en varias fuentes cuando un contenido alarmante se difunde rápidamente en redes sociales.</p><p>En cuanto a las noticias falsas o fake news, el organismo de ciberseguridad español aconseja verificar siempre la fuente original de la información y consultar múltiples medios de confianza antes de dar por cierta cualquier noticia encontrada en internet y evitar así difundir más desinformación.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/LPCTO3AYZBEHFK6L5RJTLCDFYM.JPG?auth=2c4f7816d0f23395ac4d461e404efd2e45e95ecf8e884681d2518bfd321e4a7c&amp;smart=true&amp;width=4000&amp;height=2667" type="image/jpeg" height="2667" width="4000"><media:description type="plain"><![CDATA[La suplantación de figuras públicas es un factor común en estos delitos para aumentar la credibilidad. (Foto: REUTERS/Ann Wang/File Photo)]]></media:description><media:credit role="author" scheme="urn:ebu">REUTERS</media:credit></media:content></item><item><title><![CDATA[Una mujer fue engañada con un video ‘deepfake’ para robarle su camioneta: nueva modalidad de engaño]]></title><link>https://www.infobae.com/tecno/2025/10/27/una-mujer-fue-enganada-con-un-video-deepfake-para-robarle-su-camioneta-nueva-modalidad-de-engano/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/10/27/una-mujer-fue-enganada-con-un-video-deepfake-para-robarle-su-camioneta-nueva-modalidad-de-engano/</guid><dc:creator><![CDATA[Santiago Neira]]></dc:creator><description><![CDATA[Una mujer de West Palm Beach logró evitar una posible emboscada cuando desconocidos intentaron engañarla con un video falso generado por inteligencia artificial]]></description><pubDate>Mon, 27 Oct 2025 13:49:55 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/H4CQ4ZCQQFARRK3WDNPFXY3KWY.png?auth=353c4c9215533e055917061420bc677727e06c3d2f09287d7dbde1712f1a9807&smart=true&width=1920&height=1080" alt="La policía investiga el caso como un intento de robo mediante un esquema que combina manipulación digital y presencia física - (Unsplash)" height="1080" width="1920"/><p>Una mujer de West Palm Beach, Florida (Estados Unidos), se salvó de un posible robo luego de que <b>desconocidos intentaran engañarla usando un video "</b><a href="http://infobae.com/tag/deep-fakes/" target="_blank" rel="noreferrer" title="http://infobae.com/tag/deep-fakes/"><b>deepfake</b></a><b>" que simulaba el hurto de la camioneta</b> de su esposo. El episodio abre un nuevo capítulo en la <a href="https://www.infobae.com/tecno/2025/10/25/google-borra-mas-de-3000-videos-de-youtube-que-ocultaban-malware-tras-supuestos-trucos-de-roblox/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/10/25/google-borra-mas-de-3000-videos-de-youtube-que-ocultaban-malware-tras-supuestos-trucos-de-roblox/"><b>evolución de los delitos tecnológicos y evidencia</b></a> el potencial de la inteligencia artificial como herramienta para la ingeniería social y la extorsión.</p><h2>Cómo ocurrió el intento de estafa con inteligencia artificial</h2><p>El hecho tuvo lugar cuando Melanie Valentine se encontraba haciendo duplicados de llaves en el estacionamiento de una ferretería, sobre Palm Beach Lakes Boulevard, alrededor de las 22:00 del 17 de octubre de 2025. </p><img src="https://www.infobae.com/resizer/v2/XJOLNZZJANDSNK62FE6YMBMIHE.jpg?auth=893f3e1b9f163f0f600149ac68cb205d2f4b5b1122c82a987202f080773758e5&smart=true&width=1920&height=1076" alt="El incidente anticipa amenazas inéditas en la seguridad urbana y digital - (Imagen Ilustrativa Infobae)" height="1076" width="1920"/><p>Según relató al medio local WPTV, un joven de aproximadamente 20 años se le acercó y, mostrándole su teléfono móvil,<b> le enseñó un video que supuestamente registraba el momento en el que la camioneta estaba siendo robada</b> en ese mismo aparcamiento.</p><p>El video parecía auténtico y mostraba imágenes de calidad, como si hubieran sido captadas por una cámara de seguridad. El individuo no solo le mostró el material, sino que<b> insistió en que lo siguiera fuera del local para “capturar al ladrón” </b>antes de que escapara. </p><p>No obstante, la mujer decidió confiar en su intuición, optando por comunicarse con la policía antes de actuar impulsivamente. Mientras tanto, <b>un vecino se acercó al vehículo y confirmó que seguía en el lugar</b>, <b>aunque también notó a otra persona </b>agachada detrás de la camioneta, lo que motivó el aviso inmediato al personal de seguridad.</p><p>Según la propia víctima, la agente que acudió al lugar reconoció que nunca antes había escuchado de un método de engaño similar, pero no descartó que la tendencia crezca a medida que los recursos tecnológicos se vuelven más accesibles para los delincuentes. <b>“Afortunadamente, tuve la sensatez. No los seguí afuera, ya sabes, porque ¿quién sabe qué habría pasado?”, afirmó Valentine</b>.</p><h2>El peligro de la IA en la nueva ola de estafas digitales</h2><img src="https://www.infobae.com/resizer/v2/HHRL2KPNOVEJFN6HRXI3ONOHSU.jpg?auth=bb5d649f923d2ef6991a75986e630d53c3197ee48bcddfcceec4f1dbafedc182&smart=true&width=1366&height=768" alt="El intento de robo de auto con deepfake sacude a West Palm Beach - (Imagen Ilustrativa Infobae)" height="768" width="1366"/><p>La alarma por esta modalidad crece junto con la capacidad de manipulación de imágenes y videos mediante inteligencia artificial. DeepStrike, una firma de ciberseguridad, ha estimado que <b>el fraude financiero facilitado por IA generativa superará los 40.000 millones de dólares en 2027 solo en Estados Unidos</b>, multiplicando por más de tres el valor registrado en 2023. </p><p>En cuanto a los deepfakes, la consultora señaló un crecimiento de <b>500.000 videos y fotos manipuladas en 2024 se espera llegar a cerca de 8 millones a fin de año</b>, según estimaciones citadas en un reciente informe de la compañía.</p><h2>Cuáles son los riesgos del uso de deepfakes</h2><p>El fenómeno del deepfake preocupa tanto por sus implicaciones directas en la vida cotidiana como por el impacto potencial en la esfera pública. El Observatorio de Deepfake de ISMS Forum, en su reporte “Deepfakes: Riesgos, Casos Reales y Desafíos en la Era de la IA”,<b> alertó que la manipulación sintética de contenidos no solo favorece la suplantación de identidad para fraudes bancarios y transferencias ilícitas</b>, sino que puede emplearse para desinformar, socavar procesos electorales o dañar reputaciones.</p><p>En el plano personal, los expertos advirtieron sobre la producción de imágenes o videos íntimos manipulados, utilizados en campañas de extorsión y ciberacoso, así como los desafíos legales para autenticar pruebas digitales. La<b> posibilidad de que los deepfakes burlen sistemas de autenticación biométrica añade una capa adicional de preocupación</b> para la protección de datos y la ciberseguridad.</p><img src="https://www.infobae.com/resizer/v2/7ABC3EAJFVAPPHJFXZ7ZOBC6NI.jpg?auth=2e64a42325c2cd19a5b6d4dd2a717834a1d35dfe88368503995613a04546a65a&smart=true&width=1456&height=816" alt="La nueva arma para estafas: así actúan los delincuentes con ayuda de la inteligencia artificial - (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Los expertos han insistido en la necesidad de mantenerse alerta, contrastar la información y no confiar de inmediato en lo que muestran las pantallas, sean textos, imágenes o videos.</p><p>La investigación policial de West Palm Beach continúa, mientras casos como el de Valentine ilustran el creciente desafío que representa la inteligencia artificial cuando se utiliza con fines delictivos. El episodio recuerda el potencial transformador de la tecnología, tanto en lo positivo como en lo negativo, y la urgencia de fortalecer la educación digital y los sistemas de control en la era de los contenidos sintéticos.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/H4CQ4ZCQQFARRK3WDNPFXY3KWY.png?auth=353c4c9215533e055917061420bc677727e06c3d2f09287d7dbde1712f1a9807&amp;smart=true&amp;width=1920&amp;height=1080" type="image/png" height="1080" width="1920"><media:description type="plain"><![CDATA[La policía investiga el caso como un intento de robo mediante un esquema que combina manipulación digital y presencia física - (Unsplash)]]></media:description></media:content></item><item><title><![CDATA[Cómo prevenir que las empresas pierdan dinero y datos por engaños de deepfakes y correos falsos]]></title><link>https://www.infobae.com/tecno/2025/10/24/como-prevenir-que-las-empresas-pierdan-dinero-y-datos-por-enganos-de-deepfakes-y-correos-falsos/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/10/24/como-prevenir-que-las-empresas-pierdan-dinero-y-datos-por-enganos-de-deepfakes-y-correos-falsos/</guid><dc:creator><![CDATA[Pedro Noriega]]></dc:creator><description><![CDATA[La seguridad ya no depende solo de sistemas informáticos, sino del compromiso humano. Expertos advierten que la colaboración interna y el liderazgo informado son las claves]]></description><pubDate>Fri, 24 Oct 2025 20:09:56 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/GDYPBAX67NBEPNFGACVLXSPZ6Q.png?auth=a18c52f669948b5ad448e6e689475b9edb9bd3705443bb41be9ff0b28c9f64ff&smart=true&width=1408&height=768" alt="La ciberseguridad ya no solo es tarea de un área, sino de todas las áreas de una empresa. (Imagen Ilustrativa Infobae)" height="768" width="1408"/><p>En un entorno corporativo que avanza a la velocidad de la tecnología, la <a href="https://www.infobae.com/tag/inteligencia-artificial/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/inteligencia-artificial/">inteligencia artificial</a> (IA) se ha convertido en una herramienta transformadora que está modificando la forma en que las empresas operan, se comunican y se protegen. Sin embargo, este cambio también trae consigo nuevos riesgos que exigen estrategias de seguridad más amplias y una comprensión más profunda del entorno digital.</p><p>Durante el CyberForum 2025, realizado en Bogotá, expertos de distintos sectores coincidieron en que la <a href="https://www.infobae.com/tag/ciberseguridad/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/ciberseguridad/">ciberseguridad</a> ha dejado de ser un asunto técnico para convertirse en un eje estratégico de la gestión empresarial. La llegada de la IA amplifica tanto las oportunidades como las vulnerabilidades, y las organizaciones que no adopten una cultura digital sólida podrían quedar expuestas a amenazas cada vez más sofisticadas.</p><p>Luis Fernando Londoño, líder de Transformación para Mercer Colombia, Centroamérica y el Caribe, destaca que <b>la irrupción tecnológica está reconfigurando la naturaleza misma del trabajo</b>: “Cuando uno habla de inteligencia artificial, está hablando de una herramienta que complementa el mundo del trabajo hoy en día”, señaló a Infobae Tecno. Para él, el reto ya no consiste solo en usar la tecnología, sino en entenderla, integrarla y protegerla dentro de las estructuras organizacionales.</p><img src="https://www.infobae.com/resizer/v2/7T26WGT55BDOPFVKCNPTY6XR2Q.png?auth=4dea33c1c8e8ed33512e8bdb0df4dad5d20a9dd3d9d3920e068f0ec703e28dde&smart=true&width=1153&height=735" alt="Luis Fernando Londoño habló sobre los retos de la ciberseguridad en las empresas." height="735" width="1153"/><h3>Una nueva dimensión del riesgo digital</h3><p>La digitalización masiva de los procesos empresariales ha ampliado la superficie de ataque de las compañías. Cada interacción en línea, cada base de datos conectada y cada aplicación integrada supone un posible punto de entrada para los ciberataques. En este contexto, la IA ha transformado tanto las defensas como las ofensivas: mientras permite automatizar la detección de amenazas y mejorar la respuesta, también potencia las capacidades de los atacantes.</p><p>Los especialistas coinciden en que esta dualidad tecnológica plantea un dilema sin precedentes. Por un lado, las organizaciones dependen cada vez más de algoritmos para proteger sus activos digitales; por otro, esas mismas tecnologías pueden ser utilizadas para <b>crear ataques más precisos, como los deepfakes o las campañas automatizadas de phishing</b>. Esta situación exige una preparación constante y un liderazgo empresarial capaz de anticipar los riesgos antes de que se materialicen.</p><p>Además, los ciberataques ya no solo se dirigen a infraestructuras críticas o sistemas financieros. Hoy, cualquier empleado conectado a una red corporativa puede convertirse en el blanco de una estafa o en el punto débil de una cadena de seguridad. La educación digital y la concientización interna son ahora tan importantes como los sistemas de defensa técnica.</p><img src="https://www.infobae.com/resizer/v2/H4CQ4ZCQQFARRK3WDNPFXY3KWY.png?auth=353c4c9215533e055917061420bc677727e06c3d2f09287d7dbde1712f1a9807&smart=true&width=1920&height=1080" alt="Las deepfakes se han convertido en una método de estafa común. (Unsplash)" height="1080" width="1920"/><h3>Liderar desde la prevención y la cultura digital</h3><p>El nuevo panorama obliga a los líderes empresariales a asumir un papel más activo en la protección de sus organizaciones. Ya no basta con delegar la seguridad a los departamentos de tecnología. El liderazgo debe involucrarse directamente en la <b>formación de equipos, en la definición de protocolos y en la creación de una cultura digital</b> que promueva la responsabilidad compartida.</p><p>“Hay que comprometer a toda la organización. La ciberseguridad no es solo problemas de los señores de ciber, es un reto de toda la organización y es algo que debe trabajarse desde el punto de vista de la cultura”, precisó para Infobae Tecno, Luis Londoño.</p><p>Esta transformación requiere un enfoque integral donde la prevención sea tan relevante como la reacción. Se trata de anticiparse a las amenazas mediante políticas de seguridad, evaluaciones continuas de riesgo y capacitación permanente de los empleados. Las organizaciones que logran integrar estas prácticas en su estructura cotidiana son las que mejor resisten las crisis digitales.</p><img src="https://www.infobae.com/resizer/v2/RH2FCZTEBRH65CRPXV7ITWOGHM.jpg?auth=89932b87acbf71ab0863310fbec5eeea56d4496dcc96ba4908cde72c630fab66&smart=true&width=1456&height=816" alt="Las empresas deben de empezar a capacitar a sus empleados en temas de ciberseguridad. - (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>El experto señala que este proceso debe partir del conocimiento: comprender qué herramientas se utilizan, cómo se aplican y hasta dónde pueden llegar. La clave está en que los líderes no solo adopten la tecnología, sino que la cuestionen y acompañen su implementación. “Desde el liderazgo debe haber un compromiso muy grande de entender estas herramientas, qué hacen, hasta dónde llegan, cómo impactan y cómo empiezan a ser utilizadas por los colaboradores”, enfatiza.</p><h3>Ciberseguridad colaborativa: la nueva defensa empresarial</h3><p>La evolución de las amenazas digitales ha demostrado que ninguna organización puede enfrentarlas sola. El intercambio de información, la cooperación entre sectores y la colaboración con entidades especializadas son componentes esenciales de una estrategia moderna de ciberseguridad.</p><p>Este modelo colaborativo parte de una realidad contundente, <b>mientras los atacantes necesitan acertar solo una vez para causar daño, las empresas deben acertar siempre en su defensa</b>. Por eso, las alianzas, los marcos de acción conjunta y la comunicación interna son hoy pilares fundamentales para mantener la resiliencia.</p><img src="https://www.infobae.com/resizer/v2/KTSLBSJTH5ARJIFDOXGWJR7VTA.jpg?auth=ac76c213cabafafa4aef39d827d3fc9081d47b535dbb472ce541bdf70b4b52cd&smart=true&width=1920&height=1076" alt="Aprender sobre ciberseguridad evitará que caigas en estafas de internet. (Imagen Ilustrativa Infobae)" height="1076" width="1920"/><p>En ese sentido, el liderazgo empresarial tiene la responsabilidad de impulsar una cultura basada en la vigilancia continua, la transparencia y la confianza. La seguridad digital deja de ser una barrera técnica para convertirse en una actitud colectiva, en una forma de trabajo que atraviesa todos los niveles de la organización.</p><p>De acuerdo a Lodoño, la ciberseguridad ya no puede verse como un área aislada: es un reto transversal que requiere colaboración, conciencia y visión de futuro. Solo así las empresas podrán convertir la inteligencia artificial en una aliada del progreso, y no en una fuente de vulnerabilidad.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/GDYPBAX67NBEPNFGACVLXSPZ6Q.png?auth=a18c52f669948b5ad448e6e689475b9edb9bd3705443bb41be9ff0b28c9f64ff&amp;smart=true&amp;width=1408&amp;height=768" type="image/png" height="768" width="1408"><media:description type="plain"><![CDATA[Un grupo diverso de profesionales se reúne en una oficina moderna para analizar datos y estrategias de ciberseguridad, observando gráficos y sistemas de protección en múltiples pantallas. La imagen refleja la importancia de la colaboración y la tecnología avanzada en la protección de la información empresarial. (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Servini le ordenó al Gobierno informar qué medidas adoptó contra los eventuales “deepfakes” en las elecciones]]></title><link>https://www.infobae.com/judiciales/2025/10/24/servini-le-ordeno-al-gobierno-informar-que-medidas-adopto-contra-los-eventuales-deepfakes-en-las-elecciones/</link><guid isPermaLink="true">https://www.infobae.com/judiciales/2025/10/24/servini-le-ordeno-al-gobierno-informar-que-medidas-adopto-contra-los-eventuales-deepfakes-en-las-elecciones/</guid><dc:creator><![CDATA[Tomás Martino]]></dc:creator><description><![CDATA[La jueza federal instruyó a la Dirección Nacional Electoral, dependiente del Ministerio del Interior, a detallar en 24 horas las acciones tomadas para prevenir la difusión de contenidos falsos generados con inteligencia artificial durante los comicios del próximo domingo]]></description><pubDate>Fri, 24 Oct 2025 18:41:16 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/36A6FMDSQBDRFCRXAAFS6MGAWI.webp?auth=e87663e2602af8d1b36fc31af339204ee01869190fa1c3fb5fd775438b1e9e2e&smart=true&width=1280&height=720" alt="La jueza María Servini ordenó a la Dirección Nacional Electoral informar en 24 horas qué medidas adoptó para prevenir la difusión de deepfakes en la campaña  (Crédito: www.argentina.gob.ar)" height="720" width="1280"/><p>La jueza federal con competencia electoral <a href="https://www.infobae.com/tag/maria-servini/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/maria-servini/"><b>María Servini</b></a> ordenó a la <b>Dirección Nacional Electoral (DINE)</b> del Ministerio del Interior que, en un plazo de 24 horas, informe el resultado de las medidas requeridas para prevenir la difusión de<b> </b><a href="https://www.infobae.com/tag/deepfake/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/deepfake/"><b>contenidos falsos</b></a><b> </b>generados con <b>inteligencia artificial</b> durante el proceso electoral del próximo domingo. La decisión se dictó en el marco de un <b>amparo colectivo </b>presentado por el abogado <b>Andrés Gil Domínguez</b>, tendiente a promover acciones “efectivas” para evitar la desinformación durante las <b>elecciones legislativas</b>.</p><p>En rigor, el constitucionalista había pedido “la adopción de <b>medidas efectivas </b>que <b>prevengan, alerten y hagan cesar </b>de forma urgente la <b>difusión de deepfakes o uso no autorizado del servicio de clonación de voz y rostro con </b><a href="https://www.infobae.com/tag/inteligencia-artificial/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/inteligencia-artificial/"><b>Inteligencia Artificial</b></a><b> (IA) </b>respecto del proceso electoral nacional<b> </b>de renovación parcial de la <b>Cámara de Diputados y de la Cámara de Senadores </b>que se celebrará el 26 de octubre de 2025”, al considerar que tales prácticas atentaban “de<b> manera colectiva</b>"<b> el derecho humano </b>a elegir libremente en un<b> </b><a href="https://www.infobae.com/elecciones-argentina-2025/" target="_blank" rel="noreferrer" title="https://www.infobae.com/elecciones-argentina-2025/"><b>contexto transparente de decisión</b></a><b>.</b></p><p>Según su presentación preventiva ante la justicia electoral, la "<b>manipulación informativa mediante deepfakes ataca pilares esenciales del proceso democrático. </b>La libre formación de la voluntad del votante se ve comprometida por una<b> injerencia artificial y maliciosa</b>”. </p><p>El <b>Estado Nacional</b>, a través de la Vicejefatura de Gabinete de Interior, cuestionó el amparo al considerar que “<b>las medidas preventivas </b>que pretende se adopten son de distinta envergadura y requieren mínimamente, de ser procedente su pretensión, que no lo es, <b>de tiempo y normas de distinta jerarquía</b>, pues se afectarían derechos y ellos son gozados conforme las leyes que reglamentan su ejercicio”. </p><img src="https://www.infobae.com/resizer/v2/ZAFSJ2T3P5GFLMHX5R5T4TXCZI.png?auth=7cb59ee8095fa5641c13b949355d979513b7961c2bbb805969b6a81acf3e999f&smart=true&width=904&height=555" alt="El constitucionalista Andrés Gil Domínguez promovió un amparo colectivo para exigir medidas preventivas ante la difusión de deepfakes durante la campaña" height="555" width="904"/><p>También señaló que “el accionante no tiene configurado <b>un interés concreto, inmediato y sustancial </b>para considerar que existe una causa, no existe un agravio concreto, sus apreciaciones son conjeturales y especulativas (...) -y-<b> </b>solo se presentó para <b>evitar un eventual perjuicio conjetural</b>”<b>.</b></p><p>Por su parte, corrida la vista al <b>Procurador Fiscal Electoral</b>, el funcionario reconoció la gravedad del problema y sostuvo en su dictamen que no había dudas “respecto a <b>los riesgos que genera los deepfakes para la actividad política en general y los procesos electorales en particular</b>, afectados por actos de comunicación malintencionada, falsa o directamente difamatoria (...)”. Bajo esos parámetros, pidió requerir informes al Estado Nacional sobre las acciones de prevención adoptadas y sugirió como “medida de carácter preventivo<b> </b>y acto de comunicación concreto frente<b> al electorado y la sociedad en general</b>"<b> </b>que el Poder Ejecutivo Nacional adhiera al “<a href="https://www.infobae.com/tag/compromiso-etico-digital/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/compromiso-etico-digital/"><b>Compromiso Ético Digital 2025</b></a>”, un pacto celebrado entre <b>empresas tecnología</b>, <b>asociaciones de prensa</b> y <b>agrupaciones políticas</b> para promover “la <b>honestidad del debate democrático</b>” y “contribuir a <b>mitigar los efectos negativos</b> de la divulgación de contenido falso”.</p><p>En cumplimiento de ese dictamen, la jueza Servini requirió en agosto al Estado Nacional que informara sobre las <a href="https://www.infobae.com/judiciales/2025/10/01/un-fiscal-pide-medidas-urgentes-contra-la-desinformacion-con-ia-en-los-procesos-electorales/" target="_blank" rel="noreferrer" title="https://www.infobae.com/judiciales/2025/10/01/un-fiscal-pide-medidas-urgentes-contra-la-desinformacion-con-ia-en-los-procesos-electorales/"><b>acciones de difusión</b> y <b>sensibilización</b></a> planificadas o puestas en práctica referidas “a la <b>circulación de la información por medios tradicionales</b> -incluidos los digitales, plataformas o ámbitos de la comunicación digital-, particularmente, en lo relativo a los <b>usos indebidos </b>de las <b>herramientas de Inteligencia Artificial</b> que pudieran afectar el normal desarrollo de los comicios y/o del proceso electoral en general”.</p><p>En esa oportunidad, la magistrada pidió además a la <b>Unidad de Análisis de la Información</b> y a la <b>Unidad de Inteligencia Artificial</b> de la <b>Cámara Nacional Electoral</b> un informe sobre “<b>las vías y procedimientos para denunciar, solicitar información y/o remoción de contenidos en las plataformas digitales </b>ante las posibles denuncias que se realicen durante el presente proceso eleccionario”.</p><img src="https://www.infobae.com/resizer/v2/LH4RQFKFTBCJPFGPTFRAEINDJY.jpg?auth=f9f39403e0338693ed79563df8d9c035241476c890f5b28066446c884bdf7ac1&smart=true&width=1920&height=1080" alt="La jueza federal María Servini ordenó a la Dirección Nacional Electoral que, en 24 horas, informe las medidas adoptadas frente al uso de inteligencia artificial en el proceso electoral" height="1080" width="1920"/><p>Este viernes Servini rechazó el <b>amparo colectivo</b> de Domínguez tras interpretar que el abogado carecía de legitimación procesal para impulsarlo. Para eso, citó doctrina de la <b>Corte Suprema </b>según la cual “la <b>invocación de la calidad de ciudadano, sin la demostración de un perjuicio concreto, es insuficiente para sostener la legitimación</b>”. En esa línea, señaló que “la<b> calidad de elector invocada</b> por el actor no es suficiente a fin de habilitar esta instancia judicial, en tanto no demuestra cuál es <b>el perjuicio actual y concreto </b>que sufre en el goce de los derechos que la Ley Fundamental le otorga”.</p><p>Sin embargo, la magistrada con competencia electoral aclaró que la preocupación planteada “<b>es compartida por esta judicatura</b>” y que, ante la “<b>negativa y/o demora efectuada por los organismos del Poder Ejecutivo Nacional </b>de las disposiciones sugeridas por el señor Procurador Fiscal y ordenadas en estos autos”, correspondía ordenar a la DINE que informe “<b>en el término de 24 horas el resultado de las medidas ya requeridas en la presente causa</b>”.</p><p>Antes del pasaje resolutivo, la jueza destacó la necesidad de abordar la problemática digital de manera mancomunada “para encontrar un acuerdo respecto de la mejor manera de<b> mitigar los efectos de la desinformación –en lo relativo a los procesos electorales– </b>sin perder de vista dos cuestiones fundamentales: que los ciudadanos deben tener <b>información completa y confiable</b> <b>para ejercer sus derechos políticos</b> (elegir y ser elegidos) y por otro lado, comprendiendo y respetando el rol preponderante que tiene la<b> libertad de expresión</b>”.</p><p>A su vez, Servini repasó los antecedentes normativos y jurisprudenciales sobre la materia. Recordó que la <b>Cámara Nacional Electoral</b>, mediante la <b>Acordada N° 66/2018</b>, advirtió sobre “<b>el impacto y los nuevos desafíos </b>que representa <b>el auge de las plataformas y entornos digitales</b>, dado que el uso de las<b> redes sociales </b>–que en los últimos años se tornaron herramientas de<b> uso masivo</b>– aceleraron los tiempos de<b> circulación y difusión de la información</b>”. Subrayó además que “las decisiones sobre esta temática no dependen de la autoridad de un magistrado sino de una compleja <b>rama de interacciones </b>entre los <b>poderes del Estado</b>, quienes son los encargados de la generación de <b>políticas públicas</b> y de la creación de normativas en tal sentido”.</p><img src="https://www.infobae.com/resizer/v2/47Y6EOZWL5AIZKIZO3DLZDJRDQ.jpg?auth=3970fbed2575dcc6f991136bc6c830d880acfd903ffda5b4c59bc0d9fa686129&smart=true&width=1280&height=720" alt="La Dirección Nacional Electoral deberá detallar qué acciones de sensibilización y comunicación llevó a cabo sobre el uso indebido de herramientas digitales  (Crédito: www.argentina.gob.ar)" height="720" width="1280"/><p>“Considerando lo expresado precedentemente, se desprende que las maneras de resolver el conflicto entre la <b>existencia de deepfakes</b> y la <b>libertad de elección de los ciudadanos </b>sin restricciones y con información completa no son simples, ni sencillas sino que precisan de un trabajo en conjunto de toda la sociedad para dictar medidas de acción positivas a través de las cuales se <b>refuerce el conocimiento de la ciudadanía</b> <b>sobre estas nuevas tecnologías</b> <b>sin menoscabar la libertad de expresión </b>como así también posibles herramientas de detección de contenido con información falsa, posibles reglamentaciones de los alcances de la <b>Inteligencia Artificial</b>, o cualquier otro instrumento que se considere pertinente a tales fines”, señaló la jueza porteña.</p><p>Luego concluyó: “Teniendo en consideración todo lo hasta aquí expuesto, sin perjuicio de la<b> falta de legitimidad</b> ya tratada, y en atención a la preocupación planteada – compartida por esta judicatura, manifestada con la puesta en conocimiento de la <b>Unidad de Análisis de Información</b> y <b>Unidad de Inteligencia Artificial de la</b> Cámara Nacional Electoral-, en vísperas de las elecciones a llevarse a cabo <b>el próximo 26 de octubre</b>, (...) como medida ampliatoria de las herramientas ya existentes y al alcance de este tribunal para actuar ante los casos concretos que puedan suscitarse, es que corresponde <b>ordenar a la Dirección Nacional</b> <b>informe a esta sede en el término de 24 horas</b> el resultado de las medidas ya requeridas en la presente causa".</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/36A6FMDSQBDRFCRXAAFS6MGAWI.webp?auth=e87663e2602af8d1b36fc31af339204ee01869190fa1c3fb5fd775438b1e9e2e&amp;smart=true&amp;width=1280&amp;height=720" type="image/webp" height="720" width="1280"><media:description type="plain"><![CDATA[La jueza María Servini ordenó a la Dirección Nacional Electoral informar en 24 horas qué medidas adoptó para prevenir la difusión de deepfakes en la campaña  (Crédito: www.argentina.gob.ar)]]></media:description></media:content></item><item><title><![CDATA[De celebridades a directivos: los 7 casos reales que muestran el riesgo de los deepfakes  ]]></title><link>https://www.infobae.com/tecno/2025/09/12/de-celebridades-a-directivos-los-7-casos-reales-que-muestran-el-riesgo-de-los-deepfakes/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/09/12/de-celebridades-a-directivos-los-7-casos-reales-que-muestran-el-riesgo-de-los-deepfakes/</guid><dc:creator><![CDATA[Rafael Montoro]]></dc:creator><description><![CDATA[Los cibercriminales han aprovechado la IA para perfeccionar sus estafas, logrando que sus engaños resulten cada vez más realistas y difíciles de identificar


]]></description><pubDate>Fri, 12 Sep 2025 04:22:56 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/H4CQ4ZCQQFARRK3WDNPFXY3KWY.png?auth=353c4c9215533e055917061420bc677727e06c3d2f09287d7dbde1712f1a9807&smart=true&width=1920&height=1080" alt="La imagen de Lionel Messi fue utilizada para promover una falsa aplicación de inversiones llamada “Wildcat Dive”. 
 (Unsplash)" height="1080" width="1920"/><p>La utilización de <a href="https://www.infobae.com/tag/deepfakes/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/deepfakes/">deepfakes </a>en el ámbito del cibercrimen ha registrado un crecimiento en los últimos años, con casos que han involucrado la clonación de voces e imágenes de celebridades y altos ejecutivos para perpetrar <b>estafas </b>o difundir desinformación. </p><p>ESET Latinoamérica ha identificado al menos siete situaciones recientes en las que los <a href="https://www.infobae.com/tecno/2025/09/11/estafa-del-si-como-funciona-y-que-hacer-para-que-ciberdelincuentes-no-suplanten-mi-identidad/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/09/11/estafa-del-si-como-funciona-y-que-hacer-para-que-ciberdelincuentes-no-suplanten-mi-identidad/">ciberdelincuentes </a>lograron engañar a individuos y empresas mediante la creación de videos y audios falsificados con inteligencia artificial, generando pérdidas millonarias o severas consecuencias reputacionales para los afectados. </p><h2>Las estafas deepfake más impactantes</h2><p>Según ESET, los casos detectados reflejan el nivel de sofisticación que los criminales han alcanzado al emplear estas tecnologías. En uno de los ejemplos más notorios, <b>la imagen de Lionel Messi fue utilizada para promover una falsa aplicación de inversiones llamada “Wildcat Dive”</b>. </p><img src="https://www.infobae.com/resizer/v2/GWISQKNVANBJJPQQONTTWGZVFM.png?auth=a537bf8e5ec9a2830eafc5ca783561086dfed5255fdd553625316ea12a54d865&smart=true&width=1536&height=1024" alt="La utilización de deepfakes en el ámbito del cibercrimen ha registrado un crecimiento en los últimos años. 

(Imagen Ilustrativa Infobae)" height="1024" width="1536"/><p>El video, divulgado en Instagram a partir de fragmentos manipulados de una entrevista real, buscaba engañar a los usuarios con promesas de ganancias fáciles, capitalizando la alta popularidad del futbolista argentino. </p><p>En el plano corporativo, Arup, la reconocida firma de arquitectura responsable de obras como la Ópera de Sídney, sufrió un daño económico sustancial cuando <b>un empleado, creyendo hablar con su director financiero, fue víctima de un deepfake y realizó 15 transferencias por más de 25 millones de dólares.</b> </p><p>Algo similar intentaron hacer los cibercriminales en Ferrari simulando la voz de su CEO, Benedetto Vigna, para inducir a transferencias millonarias. Aunque en este caso no lograron engañar al personal, el episodio sirvió para redoblar la capacitación en la compañía. </p><img src="https://www.infobae.com/resizer/v2/C2EM5T37JBEMPC3L5TKVTR4MX4.png?auth=5ec5397d5291e424d6d5b2ac04a49c43f7e584e2715ca22f9202539ee18ad826&smart=true&width=1536&height=864" alt="Un deepfake es una técnica basada en inteligencia artificial que genera videos o audios falsos que imitan a una persona real.

(Imagen Ilustrativa Infobae)" height="864" width="1536"/><p>Un esquema comparable afectó a WPP, una de las mayores empresas de publicidad del mundo: <b>criminales organizaron una reunión virtual suplantando al CFO mediante un audio deepfake y material de YouTube</b>, con el objetivo de acceder a dinero y datos confidenciales. Este ataque no tuvo éxito gracias al estado de vigilancia y la capacitación de los colaboradores. </p><p>El peligro de los deepfakes no se limita al entorno empresarial. En Baltimore, una escuela enfrentó una crisis cuando se viralizó un audio manipulado que supuestamente mostraba a su director haciendo comentarios racistas y antisemitas. La acción desencadenó amenazas de muerte contra el docente antes de que la policía confirmara que se trataba de un montaje generado por inteligencia artificial. </p><p>La figura de <b>Elon Musk</b> tampoco ha estado al margen: los ciberdelincuentes aprovecharon su imagen en anuncios de X y YouTube para promover falsas inversiones en Bitcoin, lo que le costó a más de 7.000 personas aproximadamente 80 millones de dólares, de acuerdo con la Federal Trade Commission de Estados Unidos. </p><p>En el ámbito político, un video deepfake del presidente ucraniano Volodímir Zelensky circuló en 2022, instando falsamente a las tropas a rendirse durante el conflicto con Rusia. El mandatario tuvo que salir rápidamente a desmentir la grabación con un mensaje legítimo en sus redes oficiales. </p><img src="https://www.infobae.com/resizer/v2/OO5XPRVMDFEK5HR6IB7IDJL35A.png?auth=a351b8673a4e9da7095b200a684d00e33b095eaf50cd04090b5f7d9710932ee5&smart=true&width=1200&height=675" alt="Los delincuentes piden dinero para no publicar el contenido falso. (Freepik)" height="675" width="1200"/><h2>Cómo protegerse de fraudes y engaños con deepfakes</h2><p>La creciente calidad de los <b>deepfakes </b>representa un desafío especial para usuarios y empresas. “Con la evolución de la Inteligencia Artificial, estos vídeos y audios parecen cada vez más reales”, señaló Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica. </p><p>Ante este panorama, la compañía recomienda desconfiar de cualquier anuncio que ofrezca resultados demasiado buenos para ser verdad, especialmente si involucra figuras públicas. </p><p>También <b>sugiere examinar con atención la calidad visual y sonora de los contenidos, </b>utilizar herramientas de seguridad que bloqueen sitios y correos maliciosos, y para las organizaciones, no autorizar operaciones financieras únicamente por llamados o videollamadas, implementando claves de validación adicionales. </p><p>La capacitación continúa resultando fundamental para identificar señales de alarma, y el aprovechamiento de tecnologías especializadas en detección de deepfakes se posiciona como una línea de defensa ante una amenaza en crecimiento. </p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/H4CQ4ZCQQFARRK3WDNPFXY3KWY.png?auth=353c4c9215533e055917061420bc677727e06c3d2f09287d7dbde1712f1a9807&amp;smart=true&amp;width=1920&amp;height=1080" type="image/png" height="1080" width="1920"><media:description type="plain"><![CDATA[La imagen de Lionel Messi fue utilizada para promover una falsa aplicación de inversiones llamada “Wildcat Dive”.   
 (Unsplash)
]]></media:description></media:content></item><item><title><![CDATA[¿Qué es un deepfake? Consejos de expertos para que usuarios y emprendedores no caigan en esta trampa digital]]></title><link>https://www.infobae.com/peru/2025/09/09/que-es-un-deepfake-consejos-de-expertos-para-que-usuarios-y-emprendedores-no-caigan-en-esta-trampa-digital/</link><guid isPermaLink="true">https://www.infobae.com/peru/2025/09/09/que-es-un-deepfake-consejos-de-expertos-para-que-usuarios-y-emprendedores-no-caigan-en-esta-trampa-digital/</guid><dc:creator><![CDATA[Valeria Mendoza Talledo]]></dc:creator><description><![CDATA[Videos virales que prometen empleos y ganancias rápidas, usando rostros de figuras conocidas, lo que no solo engaña a los usuarios, sino que también puede dañar la reputación de las empresas involucradas]]></description><pubDate>Tue, 09 Sep 2025 22:29:09 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/AMWHW6QZABCSZOD46MC2CWOHOI.jpg?auth=2f35bb19e2b7e1d5d8e1d89af814ab2bb8772ad2756e467ec447b2048f387bd3&smart=true&width=612&height=344" alt="Un deepfake es un montaje digital avanzado, generado mediante inteligencia artificial, capaz de clonar rostros y voces con un realismo casi perfecto" height="344" width="612"/><p>En los últimos años, las redes sociales se han visto inundadas de <b>videos engañosos</b> que utilizan la técnica conocida como <a href="https://www.infobae.com/peru/2025/06/19/cae-en-arequipa-creador-de-pornografia-con-ia-tenia-mas-de-50-deepfakes-sexuales-de-mujeres/" target="_blank" rel="noreferrer" title="https://www.infobae.com/peru/2025/06/19/cae-en-arequipa-creador-de-pornografia-con-ia-tenia-mas-de-50-deepfakes-sexuales-de-mujeres/"><i><b>deepfake</b></i></a>. Se trata de <b>montajes digitales avanzados</b>, creados con inteligencia artificial, que pueden clonar rostros y voces de manera casi perfecta. Estas piezas suelen mostrar a políticos, periodistas, empresarios o celebridades promoviendo negocios dudosos o invitando a invertir en supuestas fórmulas de “dinero fácil”.</p><p>El alcance del problema no se limita a los usuarios individuales. Los deepfakes representan <b>riesgos financieros,</b> pero también un <b>peligro reputacional para organizaciones</b> que pueden ver dañada su credibilidad en cuestión de horas. En el caso de Lima, un estudio de Experian reveló que nueve de cada diez personas ha sido víctima de algún tipo de <a href="https://www.infobae.com/peru/2025/07/19/fraudes-digitales-en-aumento-tras-gratificaciones-conoce-como-protege-la-linea-1820-a-los-usuarios/" target="_blank" rel="noreferrer" title="https://www.infobae.com/peru/2025/07/19/fraudes-digitales-en-aumento-tras-gratificaciones-conoce-como-protege-la-linea-1820-a-los-usuarios/">fraude digital</a>, lo que refleja un escenario altamente vulnerable.</p><p>El panorama se complica aún más cuando se considera la magnitud del cibercrimen. De acuerdo con Cybersecurity Ventures, el costo global de estos delitos pasará de tres billones de dólares en 2015 a 10.5 billones en 2025. Con cifras de esta magnitud, resulta evidente que la prevención y la educación digital se han convertido en armas imprescindibles para usuarios y empresas.</p><img src="https://www.infobae.com/resizer/v2/H7QJEGQS4JGUZJH2ZA3A5WVWKI.png?auth=c625f37760a8d3cd0ebfb889489e15443786f3138b0bf182045fb5f70ecfb206&smart=true&width=612&height=408" alt="El 33% de los colombianos identificó intentos de fraude, un dato que alerta sobre la necesidad de mayor educación digital - crédito iStock" height="408" width="612"/><h2>¿Cómo saber si un video es un deepfake?</h2><p>Detectar un <a href="https://www.infobae.com/peru/2025/03/19/estafa-digital-afecta-a-millones-de-peruanos-que-es-y-por-que-peru-ocupa-el-segundo-lugar-con-mas-ataques-en-latinoamerica/" target="_blank" rel="noreferrer" title="https://www.infobae.com/peru/2025/03/19/estafa-digital-afecta-a-millones-de-peruanos-que-es-y-por-que-peru-ocupa-el-segundo-lugar-con-mas-ataques-en-latinoamerica/">deepfake </a>no siempre es fácil, pero sí existen <b>señales que permiten sospechar de su autenticidad</b>. Según María Belén Ortiz, directora de la carrera de Sistemas de Información y Ciberseguridad en la Universidad de Ingeniería y Tecnología (UTEC), ya no basta con confiar únicamente en la voz o la imagen como pruebas de identidad.</p><p>Entre las pistas más comunes que pueden alertar a los usuarios se encuentran:</p><ul><li><b>Movimientos poco naturales: </b>labios desincronizados con el audio, parpadeo extraño o expresiones faciales rígidas.</li><li><b>Errores visuales: </b>bordes borrosos en el rostro, iluminación poco realista o sombras que no corresponden al entorno.</li><li><b>Distorsión en el audio:</b> voces metálicas, robóticas o con entonaciones poco creíbles.</li><li><b>Fuentes no oficiales:</b> ausencia de publicación en cuentas verificadas o canales institucionales reconocidos.</li><li><b>Enlaces sospechosos: </b>direcciones web con errores ortográficos, dominios poco usuales o mensajes con tono de urgencia.</li></ul><p>Ortiz enfatiza que, ante cualquier duda, lo más recomendable es <b>validar la información por un medio alternativo</b>, como una llamada o un correo institucional. En caso de haber caído en la trampa, resulta clave conservar todas las evidencias, <b>reportar el contenido en la plataforma</b>, denunciarlo ante las autoridades de delitos informáticos y comunicar con rapidez lo ocurrido.</p><img src="https://www.infobae.com/resizer/v2/H4CQ4ZCQQFARRK3WDNPFXY3KWY.png?auth=353c4c9215533e055917061420bc677727e06c3d2f09287d7dbde1712f1a9807&smart=true&width=1920&height=1080" alt="Sigue estas recomendaciones para detectar un deepfake. (Unsplash)" height="1080" width="1920"/><h2>¿Qué deben hacer las empresas ante un ataque con deepfakes?</h2><p>La velocidad con la que circula un <a href="https://www.infobae.com/peru/2025/04/20/congreso-aprueba-regulacion-de-inteligencia-artificial-endurecen-penas-para-quienes-cometan-delitos-usando-ia/" target="_blank" rel="noreferrer" title="https://www.infobae.com/peru/2025/04/20/congreso-aprueba-regulacion-de-inteligencia-artificial-endurecen-penas-para-quienes-cometan-delitos-usando-ia/"><i>deepfake </i></a>puede generar una <b>crisis reputacional inmediata</b>. Alí Rojas, director de APOYO Comunicación, sostiene que ninguna empresa está exenta de estos ataques, sin importar su tamaño. Por ello, la preparación y la capacidad de respuesta se convierten en un factor decisivo para proteger la confianza de clientes, proveedores y socios.</p><p>Rojas <b>recomienda cuatro acciones fundamentales desde lo comunicacional</b>:</p><ul><li><b>Respuesta inmediata</b>: activar los canales corporativos con comunicados oficiales que desmientan el contenido falso y monitorear medios y redes para medir el impacto.</li><li><b>CEO como vocero:</b> la persona suplantada debe ser la primera en denunciar públicamente la falsificación en sus redes, reforzando la credibilidad del mensaje.</li><li><b>Colaboradores como aliados</b>: informar al personal lo ocurrido para que repliquen la versión oficial y actúen como multiplicadores de la verdad.</li><li><b>Cultura de defensa digital:</b> capacitar permanentemente en prevención de fraudes, desinformación y delitos cibernéticos, mediante talleres o cursos especializados.</li></ul><p>Estas medidas permiten <b>contener el daño en el corto plazo</b> y, al mismo tiempo, construir una cultura organizacional más resistente a futuras amenazas. Una empresa preparada no solo reacciona de forma eficiente, sino que también transmite confianza en momentos de incertidumbre.</p><img src="https://www.infobae.com/resizer/v2/QUT5GDUE2VFJTIXN3ADXC53QOA.jpg?auth=c904bd6895a53a94f0363247e0ae46b03638dc8719fd7c59a2d6cc72b623a281&smart=true&width=1920&height=1080" alt="" height="1080" width="1920"/><p>En un mundo digital donde la manipulación evoluciona con rapidez, la combinación de educación, protocolos claros y tecnología de verificación avanzada se convierte en la mejor estrategia para enfrentar los <i>deepfakes</i>. La confianza, tanto de usuarios como de organizaciones, está en juego y protegerla es una responsabilidad compartida.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/QUT5GDUE2VFJTIXN3ADXC53QOA.jpg?auth=c904bd6895a53a94f0363247e0ae46b03638dc8719fd7c59a2d6cc72b623a281&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:credit role="author" scheme="urn:ebu">Infobae/Jesús</media:credit></media:content></item><item><title><![CDATA[SHEIN retiró anuncio de producto luego de utilizar imagen vinculada a Luigi Mangione, acusado de asesinato]]></title><link>https://www.infobae.com/estados-unidos/2025/09/03/shein-retiro-anuncio-de-producto-luego-de-utilizar-imagen-vinculada-a-luigi-mangione-acusado-de-asesinato/</link><guid isPermaLink="true">https://www.infobae.com/estados-unidos/2025/09/03/shein-retiro-anuncio-de-producto-luego-de-utilizar-imagen-vinculada-a-luigi-mangione-acusado-de-asesinato/</guid><dc:creator><![CDATA[Alejandra Villalobos]]></dc:creator><description><![CDATA[La tienda digital enfrentó críticas por la aparición de un retrato digitalmente generado de un procesado en una campaña publicitaria, reavivando discusiones sobre ética y control en plataformas de comercio global]]></description><pubDate>Wed, 03 Sep 2025 23:36:34 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/VAMYGGJNI5DHVPYDBNM4RTL6SA.png?auth=2d7aa7b423897713326f904dd1aa4ecc8d3d45a67a2f93649f1825546db4dc11&smart=true&width=1920&height=1080" alt="Luigi Mangione y el logotipo de SHEIN, protagonistas de un debate sobre el uso de imágenes en plataformas de moda. (Crédito: Curtis Means/Pool via REUTERS; REUTERS/Dado Ruvic)" height="1080" width="1920"/><p>La plataforma global de ventas de moda <b>SHEIN</b> eliminó un anuncio de su popular sitio web luego de que se detectara que la imagen utilizada para publicitar una camisa masculina correspondía al rostro de <b>Luigi Mangione</b>, de 27 años, actualmente acusado por el asesinato de <b>Brian Thompson</b>, presidente ejecutivo de <b>UnitedHealthcare</b>, en diciembre de 2024. Aunque Mangione se encuentra en prisión federal a la espera de juicio y ha declarado su inocencia ante los cargos federales de <b>homicidio, acoso y posesión de armas de fuego con silenciador</b>, la fotografía provocó desconcierto y polémica en redes sociales tras circular ampliamente mediante capturas del anuncio original.</p><p>La imagen de promoción, que aparece como <b>generada por inteligencia artificial</b> y que no corresponde a Mangione posando en la vida real, mostraba a una persona con los rasgos del acusado modelando una camisa blanca de manga corta, cuyo precio en el sitio era de 11.69 dólares. La publicación fue detectada por internautas y, rápidamente, usuarios en plataformas sociales <b>comenzaron a manifestar su confusión y rechazo</b>, lo que llevó a que el producto se agotara en tres de las cuatro tallas disponibles, según una versión archivada del catálogo. Poco después, SHEIN optó por suprimir de inmediato dicho anuncio.</p><p>Una portavoz de SHEIN declaró a <i>NBC News</i> que “la imagen de Mangione fue publicada por un vendedor externo y fue retirada en cuanto se identificó”. Añadió que la firma mantiene “estándares estrictos para todos los anuncios” y que<b> se está llevando a cabo una investigación a fondo</b>, con el compromiso de fortalecer los mecanismos de supervisión y aplicar sanciones conforme a las políticas internas.</p><h2>El rol de los vendedores externos y el uso de IA en el sector de la moda rápida</h2><p>El vendedor responsable de la publicación, identificado como <b>Manfinity</b>, no respondió a los intentos de contacto realizados por periodistas y a través de sus canales oficiales, según señaló <i>NBC News</i>. El sitio web de Manfinity <b>exhibe numerosas imágenes que parecen creadas mediante inteligencia artificial</b>. Además, tanto el correo electrónico de soporte de la compañía rebota como la dirección postal consignada, presuntamente ubicada en <b>Detroit</b>, no tiene correspondencia con una ubicación verificable.</p><p>El comunicado de SHEIN subrayó la investigación vigente, indicando que <b>se reforzarán los protocolos de vigilancia para evitar incidentes similares </b>y se revisarán todos los listados de vendedores externos con mayor rigurosidad.</p><p>Por su parte, los defensores legales de Mangione prefirieron <b>no emitir declaraciones a la prensa tras la publicación </b>y posterior remoción del anuncio, informó <i>NBC News</i>.</p><img src="https://www.infobae.com/resizer/v2/ZAFW766CJFBRXGSRTH6TN7N27I.png?auth=686cfd8e343583d4f3de9196930d00550b61fd721f49fb29bd0d134670862438&smart=true&width=680&height=846" alt="Visual relacionado con la controversia desatada por la presencia de Luigi Mangione en anuncios digitales. (Crédito: Shein)" height="846" width="680"/><h2>Expansión del uso de imágenes generadas por inteligencia artificial en publicidad y controversias recientes</h2><p>En los últimos años, la utilización de imágenes sintéticas para campañas comerciales ha desencadenado controversias recurrentes. En julio, la revista <b>Vogue</b> recibió críticas después de publicar una publicidad de <b>Guess</b> que<b> empleaba un modelo digital generado por inteligencia artificial para promocionar prendas</b>, recordó <i>NBC News</i>.</p><p>Además, la apropiación del aspecto de personas reconocidas sin su consentimiento ha dado paso a múltiples denuncias públicas. Celebridades como <b>Taylor Swift</b>, <b>Tom Hanks</b> y <b>Scarlett Johansson</b> han visto sus identidades explotadas en supuestas reseñas o promociones de productos mediante técnicas de deepfake, lo que <b>ha originado debates legales sobre derechos de imagen y protección de datos</b>.</p><h2>Reacciones sociales y debate en torno a la figura de Luigi Mangione</h2><p>El asesinato de <b>Brian Thompson</b> provocó en su momento una rápida condena por parte de líderes institucionales estadounidenses. No obstante, un sector de usuarios, principalmente en redes sociales de China, <b>expresó admiración por Mangione</b>, particularmente en plataformas como <b>RedNote</b>. Por otro lado, el hecho también reavivó un extenso debate público <b>sobre las políticas de salud y aseguramiento corporativo en el contexto estadounidense</b>.</p><p>Días después del asesinato de Thompson, plataformas de comercio estadounidense como <b>Amazon</b>, <b>Etsy</b> y <b>eBay</b> eliminaron mercancía de fabricación no oficial que utilizaba la imagen de Mangione, según reportó <i>NBC News</i>. La viralización del anuncio en <b>SHEIN</b> puso nuevamente en el centro de la discusión<b> la rápida comercialización de la imagen de figuras en procesos judiciales</b> y los desafíos de controlar el contenido generado por inteligencia artificial en plataformas de venta masiva.</p><p>La eliminación del anuncio sucede en un contexto donde las plataformas digitales enfrentan crecientes cuestionamientos sobre<b> la autenticidad y legalidad del material publicitario</b> distribuido por vendedores externos, así como sobre los mecanismos de protección de la imagen personal en la era digital.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/VAMYGGJNI5DHVPYDBNM4RTL6SA.png?auth=2d7aa7b423897713326f904dd1aa4ecc8d3d45a67a2f93649f1825546db4dc11&amp;smart=true&amp;width=1920&amp;height=1080" type="image/png" height="1080" width="1920"><media:description type="plain"><![CDATA[Luigi Mangione y el logotipo de SHEIN, protagonistas de un debate sobre el uso de imágenes en plataformas de moda. (Crédito: Curtis Means/Pool via REUTERS; REUTERS/Dado Ruvic)]]></media:description></media:content></item><item><title><![CDATA[Trabajador por creer en un video hecho con IA hizo perder a su empresa 25 millones de dólares]]></title><link>https://www.infobae.com/tecno/2025/09/03/trabajador-por-creer-en-un-video-hecho-con-ia-hizo-perder-a-su-empresa-25-millones-de-dolares/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/09/03/trabajador-por-creer-en-un-video-hecho-con-ia-hizo-perder-a-su-empresa-25-millones-de-dolares/</guid><dc:creator><![CDATA[Dylan Escobar Ruiz]]></dc:creator><description><![CDATA[Ciberdelincuentes utilizaron deepfakes para cometer este fraude. Expertos alertan sobre el aumento de incidentes similares y la urgencia de reforzar medidas de verificación]]></description><pubDate>Wed, 03 Sep 2025 14:33:28 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/JOWGGZJD7NDVRGF37OT3BZ2GJA.jpg?auth=a91d19eb03b9201ced165c3d1b54671b9b4de512d9fae8fde15d4c9c71cea344&smart=true&width=1456&height=816" alt="Varios casos se han reportado donde integrantes de una organización son manipulados a través de ingeniería social. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p><a href="https://www.infobae.com/tecno/2025/04/10/una-empresa-perdio-25-millones-de-dolares-porque-un-empleado-creyo-en-un-video-hecho-ia/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/04/10/una-empresa-perdio-25-millones-de-dolares-porque-un-empleado-creyo-en-un-video-hecho-ia/">La creciente sofisticación de los deepfakes ha puesto en jaque la seguridad empresarial</a>, como lo demuestra el caso de Arup, una firma británica que en 2024 sufrió la pérdida de 25 millones de dólares tras una estafa basada en inteligencia artificial.</p><p>Un empleado, <a href="https://www.infobae.com/tecno/2025/07/09/la-nueva-estafa-que-se-expande-por-whatsapp-asi-logran-robar-tu-cuenta-paso-a-paso/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/07/09/la-nueva-estafa-que-se-expande-por-whatsapp-asi-logran-robar-tu-cuenta-paso-a-paso/">convencido por una videollamada que simulaba a miembros de la alta dirección</a>, autorizó una transferencia millonaria, sin advertir que interactuaba con videos manipulados digitalmente.</p><p>Este incidente, según Rob Greig, <b>quien entonces ocupaba el cargo de director de información en Arup</b>, no se trató de un ciberataque convencional, sino de un ejemplo de “ingeniería social potenciada por la tecnología”.</p><img src="https://www.infobae.com/resizer/v2/QS45NA4FCZEFHIEGFTAMVELD4Y.jpg?auth=5c06727fdfc4175a0d8ffe0569c582e242cdda330ac9d647f023ce3f23893253&smart=true&width=1456&height=816" alt="Son ciberataques avanzados que se aprovechan de la confianza en ciertos canales digitales. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Greig explicó ante el Foro Económico Mundial que la manipulación no solo explotó vulnerabilidades técnicas, sino que aprovechó la confianza depositada en señales visuales y auditivas, <b>consideradas fiables para validar la autenticidad de una comunicación.</b></p><h2>En qué consisten los deepfakes y por qué pueden ser peligrosos</h2><p>Los deepfakes emplean inteligencia artificial para generar imágenes y sonidos que imitan de manera realista a una persona, sin que esta haya participado en la acción representada.</p><p><b>Estas herramientas procesan grandes volúmenes de datos visuales y auditivos</b>, replicando gestos, voces y rasgos faciales con una precisión que dificulta la detección del engaño.</p><img src="https://www.infobae.com/resizer/v2/V645UNYEXZGM3PTOR6U5I65SYQ.jpg?auth=d4d7e20152920997b81c0a908923eec5b9dfb1efcaccfc1fe04cfbc130b0ee9e&smart=true&width=1456&height=816" alt="Esta tecnología puede replicar varios detalles de una persona. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Aunque la tecnología tiene aplicaciones legítimas en sectores como el cine, la publicidad o la educación, <b>su uso fraudulento se ha expandido</b>, afectando tanto a individuos como a organizaciones.</p><h2>Cómo engañaron al empleado para que enviara esa cantidad de dinero</h2><p>En el caso de Arup, los delincuentes crearon videos falsos de altos ejecutivos para persuadir a un empleado de realizar una transferencia bancaria. <b>La videollamada, que aparentaba total legitimidad, resultó en la pérdida de una suma millonaria.</b></p><p>Este tipo de fraude resulta muy peligroso porque explota la confianza en la veracidad de las imágenes y sonidos, elementos que históricamente han servido para verificar la identidad de los interlocutores.</p><h2>Por qué preocupa el uso de inteligencia artificial para manipular fotos y videos</h2><img src="https://www.infobae.com/resizer/v2/3M37ZDYDOBBSRGR2CWOGP6OBAY.png?auth=4385aa24c483552f7271a047cda775abc4e450178b8caa4b0709d20e92de861a&smart=true&width=1536&height=1024" alt="Muchas de las órdenes se dicen vía digital, así que la probabilidad de fraude aumenta. (imagen ilustrativa Infobae)" height="1024" width="1536"/><p><b>La preocupación por el impacto de los deepfakes en el sector corporativo va en aumento.</b> Una encuesta de Deloitte realizada en 2024 reveló que el 25% de los ejecutivos reportó incidentes relacionados con deepfakes dirigidos a datos financieros y contables.</p><p>Sumado al riesgo económico, la reputación de las empresas queda expuesta, porque la manipulación de imágenes y videos puede pasar inadvertida sin herramientas de verificación avanzadas.</p><p>Asimismo, las proyecciones del Centro de Servicios Financieros de Deloitte advierten que la inteligencia artificial generativa, responsable de la creación de deepfakes, <b>podría causar pérdidas por fraude de hasta 40.000 millones de dólares en Estados Unidos para 2027.</b></p><p>Este escenario subraya la capacidad destructiva de la tecnología cuando es utilizada con fines ilícitos y la necesidad de reforzar tanto los sistemas de defensa informática como la formación de sus empleados frente a todos los riesgos.</p><h2>Cómo evitar que más casos de este tipo de repitan en las empresas</h2><img src="https://www.infobae.com/resizer/v2/KTSLBSJTH5ARJIFDOXGWJR7VTA.jpg?auth=ac76c213cabafafa4aef39d827d3fc9081d47b535dbb472ce541bdf70b4b52cd&smart=true&width=1920&height=1076" alt="Todos los colaboradores deben estar atentos a las señales que indican amenazas. (Imagen Ilustrativa Infobae)" height="1076" width="1920"/><p><b>Para mitigar el peligro de los fraudes basados en deepfakes</b>, existen estrategias de verificación que pueden implementarse en el ámbito corporativo. </p><p>Alberto Juárez, vicepresidente global de verificación de identidad en Sovos, dice que “la prueba de vida es un escudo digital clave, cuya función es asegurarse de que quien está al otro lado de la pantalla es una persona real y no una imagen manipulada”. </p><p><b>Es clave que empleados y directivos nunca autoricen transferencias de dinero sin confirmar la identidad del solicitante</b>, incluso si se trata de un colega conocido. Además, los expertos insisten en la importancia de validar las videollamadas y mensajes a través de canales alternativos, como una llamada telefónica independiente. </p><p>Subrayan la necesidad de ser prudente al compartir información personal en redes sociales y otras plataformas , porque estos datos pueden ser utilizados para crear videos alterados convincentes.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/JOWGGZJD7NDVRGF37OT3BZ2GJA.jpg?auth=a91d19eb03b9201ced165c3d1b54671b9b4de512d9fae8fde15d4c9c71cea344&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[Varios casos se han reportado donde integrantes de una organización son manipulados a través de ingeniería social. (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Deepfakes de gerentes: la nueva amenaza a la reputación empresarial]]></title><link>https://www.infobae.com/peru/2025/08/28/deepfakes-de-gerentes-la-nueva-amenaza-a-la-reputacion-empresarial/</link><guid isPermaLink="true">https://www.infobae.com/peru/2025/08/28/deepfakes-de-gerentes-la-nueva-amenaza-a-la-reputacion-empresarial/</guid><dc:creator><![CDATA[Roger Trelles]]></dc:creator><description><![CDATA[El desafío central es que muchos ciudadanos aún no comprenden cómo funcionan los deepfakes, lo que los convierte en blancos fáciles de engaño]]></description><pubDate>Thu, 28 Aug 2025 11:00:01 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/CRW3CSSWSFHPBKQG3AASSXYVFQ.jpg?auth=d91d3ab02400e524263ddb48c95e0753744c0a51ef838c66f3d9209d46913128&smart=true&width=1920&height=1080" alt="(Imagen Ilustrativa Infobae)" height="1080" width="1920"/><p>El <b>deepfake</b>, tecnología capaz de manipular <b>voz, rostro, video e imagen</b> para hacer decir o hacer a alguien lo que nunca ocurrió, ya no es un asunto lejano. En el Perú, gerentes de sectores como <b>finanzas, construcción, microfinanzas o restaurantes</b>, han comenzado a ser víctimas de esta manipulación. Incluso figuras de medios de comunicación han visto su imagen empleada en mensajes falsos que inducen a estafas.</p><p>La <b>magnitud del riesgo</b> es creciente. Un reporte de <b>Deloitte en 2024</b> señala que el 25% de los altos mandos ejecutivos ha enfrentado incidentes de deepfake dirigidos a datos financieros y contables. Por su parte, un informe de <b>CrowdStrike para América Latina</b> advierte del aumento sostenido de este tipo de ataques.</p><p>Estos hechos confirman que no se trata de un problema exclusivo de las <b>grandes corporaciones</b>. Pymes, ONGs e <b>instituciones del Estado</b> también están expuestas. El desafío central es que muchos ciudadanos aún no comprenden cómo funcionan los deepfakes, lo que los convierte en <b>blancos fáciles de engaño</b>.</p><p>Las <b>organizaciones deben prepararse</b> para enfrentar un nuevo reto: responder en <b>tiempo real a fraudes digitales</b> que, en esencia, son fraudes de alto impacto.</p><p>Para este desafío, es fundamental tomar en cuenta las siguientes recomendaciones. En primer lugar, contar con <b>protocolos de verificación pública</b>. Cada organización necesita procesos claros para confirmar la autenticidad de sus contenidos.</p><p>En segundo lugar, implementar <b>plantillas de negación rápida</b>. Contar con comunicados predefinidos que permitan desmentir en cuestión de horas y no de días. También pueden considerarse <b>marcas de autenticidad</b>. Incluir sellos, firmas digitales o elementos de validación en los mensajes oficiales.</p><p>Las áreas de <b>TI, legal y comunicaciones</b>, deben ensayar juntos escenarios de deepfake para mejorar la coordinación. Asimismo, cada vez resulta más estratégico el uso de <b>canales propios</b>. Reforzar los medios institucionales donde el mensaje puede ser controlado y actualizado con frecuencia.</p><p>Finalmente, los <b>voceros deben estar preparados</b> para la inmediatez. La <b>capacitación ya no debe centrarse solo en el discurso</b>, sino en la velocidad de respuesta ante crisis digitales. Los voceros deben ahora entrenarse para reaccionar rápido en escenarios inmediatos. Ya sea a través de los <b>medios de comunicación, los canales digitales</b> o los mecanismos presenciales para con sus equipos.</p><p>Se trata de un <b>reto en tiempo real</b>. El <b>cuidado de la reputación</b> ya no puede ser un ejercicio reactivo ni burocrático. Hoy más que nunca, la <b>anticipación</b>, que muchas veces olvidan las empresas, se convierte en una condición necesaria. Los deepfakes convierten la comunicación de crisis en un desafío de tiempo real.</p><p>De afrontar correctamente este desafío dependerá no solo la <b>confianza en las marcas</b>, sino también la <b>seguridad de miles de ciudadanos</b> que pueden ser víctimas de fraudes. Las crisis ya no solo impactan en los valores de mercado. Impactan también en miles de personas que ponen en riesgo su tranquilidad por este tipo de estafas. El <b>reto para el cierre de 2025 y el 2026</b> será claro: blindar la reputación con la misma seriedad con la que se protege el patrimonio financiero.</p><img src="https://www.infobae.com/resizer/v2/WBGDYTFOTZBIND5WD4ID7LQHJU.jpg?auth=6bc1c3e5f839d92bf9adcf462fc1c99ada1631197f134793d0d850c017676eaf&smart=true&width=1920&height=673" alt="" height="673" width="1920"/>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/V47PZY5QHRBTFFCXWJ763OFRYY.jpg?auth=790a3ab2a35c33a14907cc7cf34a7a70f224baa55fe1ab2f931568c5915865f6&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"/></item><item><title><![CDATA[CEO de Google, Sundar Pichai, cuenta cómo los candidatos usan IA para engañar a la empresa en entrevistas de trabajo]]></title><link>https://www.infobae.com/tecno/2025/08/17/ceo-de-google-sundar-pichai-cuenta-como-los-candidatos-usan-ia-para-enganar-a-la-empresa-en-entrevistas-de-trabajo/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/08/17/ceo-de-google-sundar-pichai-cuenta-como-los-candidatos-usan-ia-para-enganar-a-la-empresa-en-entrevistas-de-trabajo/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[La compañía optó por modificar sus procesos de contratación y pedir un encuentro presencial]]></description><pubDate>Sun, 17 Aug 2025 12:35:41 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/N3VUHJN325H7FLGMOUNYX7RCMY.JPG?auth=5d5feb2318f5a856c5244c5ae940544db28bbf73d6d7805e82b34c1da2d8a52f&smart=true&width=2048&height=1365" alt="El CEO de Google advierte sobre el uso de IA en entrevistas laborales y los retos para verificar habilidades reales. (REUTERS/Carlos Barria/File Photo)" height="1365" width="2048"/><p><a href="https://www.infobae.com/tecno/2025/08/14/google-apple-meta-y-otras-empresas-se-cansan-del-contenido-falso-con-ia-en-entrevistas-de-trabajo-la-solucion-volver-a-lo-presencial/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/08/14/google-apple-meta-y-otras-empresas-se-cansan-del-contenido-falso-con-ia-en-entrevistas-de-trabajo-la-solucion-volver-a-lo-presencial/">La irrupción de la inteligencia artificial ha modificado de manera profunda el ámbito del reclutamiento</a>, especialmente en el sector tecnológico. Sundar Pichai, CEO de <a href="https://www.infobae.com/tag/google/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/google/">Google</a>, <b>advirtió cómo estas nuevas herramientas están alterando el proceso de selección de ingenieros y programadores</b> y la propia concepción de las entrevistas laborales. </p><p>En entrevista con Lex Fridman Podcast, el directivo ha detallado los retos y oportunidades que representa la IA en la búsqueda de talento.</p><p>Durante los últimos años, el uso de entrevistas virtuales se generalizó en las grandes compañías, <b>impulsado inicialmente por la pandemia y luego por la conveniencia para ambas partes. </b></p><p>El CEO de Google señaló que cada vez más aspirantes a puestos técnicos<b> recurren a herramientas de IA para resolver en tiempo real los desafíos de programación</b> y código que se plantean en entrevistas remotas. </p><img src="https://www.infobae.com/resizer/v2/JDPIFL75PBDTFOYOKFA2YPYT4Y.png?auth=12e8421e3b9510e8854c3b36d859af1fb8bd690b9b7a9e9e69cc79a7482c02e8&smart=true&width=1536&height=864" alt="Más del 50% de los candidatos a puestos técnicos utilizan inteligencia artificial en entrevistas virtuales, según datos del sector.(imagen ilustrativa Infobae)" height="864" width="1536"/><p><b>Esta tendencia ha crecido de forma paralela al desarrollo de chatbots sofisticados y asistentes especializados</b>, los cuales ofrecen respuestas y soluciones en segundos. </p><h2>Qué dificultades ha tenido Google en las entrevistas de trabajo por culpa de la IA</h2><p>Pichai advirtió que el principal problema es la dificultad para verificar que los conocimientos y habilidades mostrados en una entrevista virtual sean genuinos. De acuerdo con datos recogidos por consultoras y plataformas del sector,<b> más de la mitad de los postulantes en entrevistas técnicas virtuales podrían estar utilizando ayuda de inteligencia artificial fuera de cámara.</b></p><p>El fenómeno afecta la autenticidad de la evaluación y la confianza en el sistema de contratación. La situación se ha agravado a tal punto que dentro de Google, y también en otras empresas del sector,<b> algunos responsables de selección han reportado que más del 50% de los candidatos recurren a trampas digitales. </b></p><p>Como contramedida, los entrevistadores han comenzado a <b>realizar preguntas adicionales y pruebas diferenciales para identificar si los aspirantes comprenden verdaderamente sus respuestas y procesos.</b></p><img src="https://www.infobae.com/resizer/v2/QYTW37QYPZGYXNONTWNA6L4OXU.jpg?auth=7695a6867f3db350bf7129aba578755a1f9456f574a5618bd4821b5038f9fef7&smart=true&width=1456&height=816" alt="Consultoras estiman que para 2028 uno de cada cuatro candidatos podría ser un 'falso digital' gracias a la IA generativa. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>A esta problemática se añade el peligro de los deepfakes y fraudes automatizados. Empresas de ciberseguridad y analistas han detectado casos en <b>los que postulantes utilizan IA para responder preguntas y alterar su imagen en tiempo real y crear identidades falsas. </b></p><p>Según advertencias de consultoras como Gartner, se estima que, para 2028, uno de cada cuatro candidatos a nivel mundial podría ser un “falso digital” gracias a los avanzados sistemas de IA generativa.</p><h2>Qué cambios implementará Google en sus entrevistas de trabajo</h2><p>Google decidió dar marcha atrás en algunas de las prácticas instauradas en la era de la pandemia. <b>Sundar Pichai anunció la reinstauración de al menos una ronda de entrevistas presenciales en el proceso de selección </b>de su empresa para los puestos de ingeniería. </p><p>La medida, comunicada públicamente durante una entrevista en el podcast y confirmada en internados de Google, <b>consiste en “asegurar que los fundamentos están presentes” en cada candidato.</b></p><img src="https://www.infobae.com/resizer/v2/E7A5A2OHYRAFJAEC4AQDWECUN4.jpg?auth=1b79aa8002d11f9b98128b5698373e080648110a10a87abac5e9b903a08dbf55&smart=true&width=1456&height=816" alt="Google reinstaura entrevistas presenciales para ingenieros ante el auge de trampas digitales y deepfakes. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Pichai explicó que esta aproximación híbrida busca combinar las ventajas de las entrevistas virtuales —como la reducción del tiempo de contratación en casi dos semanas y la facilidad logística— con la robustez de la evaluación cara a cara. </p><p>Brian Ong, vicepresidente de reclutamiento de Google, reconoció públicamente el reto que impone la proliferación de IA en estas instancias. Durante foros internos, Ong admitió que si bien las entrevistas remotas son más rápidas y fáciles, <b>la compañía “tiene que hacer más para integrar la IA de forma responsable” en el proceso. </b></p><p>En paralelo, los entrevistadores han recibido indicaciones de realizar preguntas de seguimiento a los candidatos para observar su razonamiento y comprobar la autenticidad de sus habilidades.</p><p><b>La inquietud ante la extensión del uso de IA provino no solo de la alta dirección, sino también del propio cuerpo de empleados de Google</b>. Durante distintas reuniones, trabajadores han solicitado volver a esquemas de entrevistas presenciales, temiendo que la dependencia exclusiva en plataformas virtuales vulnere la integridad del proceso y minimice la evaluación de habilidades auténticas.</p><p>Empleados preguntaron directamente a los líderes de la compañía sobre la posibilidad de eliminar las entrevistas remotas, <b>proponiendo incluso que los candidatos se presentaran en espacios controlados por la propia empresa.</b> Estas preocupaciones llevaron a Pichai a recomendar una aproximación híbrida, balanceando eficiencia y autenticidad.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/N3VUHJN325H7FLGMOUNYX7RCMY.JPG?auth=5d5feb2318f5a856c5244c5ae940544db28bbf73d6d7805e82b34c1da2d8a52f&amp;smart=true&amp;width=2048&amp;height=1365" type="image/jpeg" height="1365" width="2048"><media:description type="plain"><![CDATA[El CEO de Google advierte sobre el uso de IA en entrevistas laborales y los retos para verificar habilidades reales. (REUTERS/Carlos Barria/File Photo)]]></media:description><media:credit role="author" scheme="urn:ebu">Carlos Barria</media:credit></media:content></item><item><title><![CDATA[Videos generados con inteligencia artificial imitan a doctores reales: difunden consejos y tratamientos falsos]]></title><link>https://www.infobae.com/estados-unidos/2025/08/16/videos-generados-con-inteligencia-artificial-imitan-a-doctores-reales-difunden-consejos-y-tratamientos-falsos/</link><guid isPermaLink="true">https://www.infobae.com/estados-unidos/2025/08/16/videos-generados-con-inteligencia-artificial-imitan-a-doctores-reales-difunden-consejos-y-tratamientos-falsos/</guid><dc:creator><![CDATA[Alejandra Villalobos]]></dc:creator><description><![CDATA[Instituciones de ciberseguridad y especialistas en plataformas digitales advierten sobre la circulación de grabaciones manipuladas que utilizan imágenes y voces simuladas de profesionales, lo que pone en riesgo la confianza pública en la información vinculada a la salud]]></description><pubDate>Sat, 16 Aug 2025 15:31:24 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/6KC5WYDUBZEAPKZWCVEJWRBBJY.jpg?auth=82e5fabd9f3b5b097900c541e9d0c31c8164f9a496de0df0fbe353930679e48e&smart=true&width=1456&height=816" alt="Plataformas digitales identifican un aumento de contenido manipulado relacionado con temas de salud. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>La propagación de contenido falso en internet ha alcanzado un nuevo nivel con la aparición de videos generados por inteligencia artificial que imitan a médicos reales para difundir mensajes y productos engañosos. La proliferación de deepfakes médicos en redes sociales ha permitido que supuestos especialistas, a veces suplantando a profesionales auténticos, <b>difundan recomendaciones de salud erróneas o promuevan tratamientos no verificados ante millones de usuarios</b>. Un caso reciente lo vivió <b>Joel Bervell</b>, un médico con amplia presencia en plataformas digitales, quien descubrió que <b>su imagen era utilizada en videos desconocidos para él </b>y que <b>promocionaban productos que nunca había respaldado</b>.</p><p>Estos materiales manipulados han sido identificados en diversas redes sociales, como <b>TikTok</b>, <b>Instagram</b>, <b>Facebook</b> y <b>YouTube</b>, según reportó <i>CBS News</i>. El fenómeno afecta tanto a <b>expertos reales</b>, cuyos rostros y nombres son apropiados, como a <b>figuras completamente ficticias</b>, creadas exclusivamente con herramientas digitales para impulsar artículos relacionados principalmente con <b>bienestar, belleza y pérdida de peso</b>.</p><p>Las estrategias detrás de los deepfakes buscan <b>generar confianza en la audiencia al utilizar testimonios supuestamente autorizados</b>. En la investigación realizada por <i>CBS News</i>, se hallaron decenas de cuentas con<b> más de cien videos publicados destinados a vender productos a través de sitios independientes o reconocidos mercados en línea</b>. Muchas grabaciones contenían afirmaciones extraordinarias, como la promoción de fórmulas “96% más efectivas que Ozempic”, medicamento destinado al tratamiento de la diabetes y la obesidad.</p><img src="https://www.infobae.com/resizer/v2/H4CQ4ZCQQFARRK3WDNPFXY3KWY.png?auth=353c4c9215533e055917061420bc677727e06c3d2f09287d7dbde1712f1a9807&smart=true&width=1920&height=1080" alt="Empresas de ciberseguridad rastrean cuentas que difunden material falso con rostros de especialistas médicos. (Crédito: Unsplash)" height="1080" width="1920"/><h2>El mecanismo tras los videos manipulados: inteligencia artificial al alcance de todos</h2><p>El acceso a herramientas de inteligencia artificial ha permitido a actores maliciosos<b> crear fácilmente videos de alta calidad</b>, reduciendo la posibilidad de que los usuarios detecten el engaño, en especial desde dispositivos móviles. La compañía de ciberseguridad <b>ESET</b> detectó <b>más de 20 cuentas en TikTok e Instagram utilizando médicos generados por IA </b>para recomendar artículos supuestamente milagrosos, de acuerdo con declaraciones de <b>Martina López</b>, investigadora de esa empresa, recogidas por <i>CBS News</i>.</p><p><b>Tony Anscombe</b>, director de seguridad de ESET, advirtió que el perfeccionamiento de estas tecnologías dificulta que el público identifique inconsistencias visuales o sonoras. Visualizar los videos en pantallas pequeñas aumenta la posibilidad de que pasen desapercibidos errores reconocibles, como <b>bordes borrosos, distorsiones en el rostro o voces robóticas</b>.</p><p>Entre los indicios para detectar estos contenidos, ESET resalta la presencia de <i><b>“glitches”</b></i> visuales y la falta de naturalidad en el audio. Además, conviene poner en duda mensajes que aseguran <b>remedios milagrosos, beneficios garantizados o curas inéditas</b>, tácticas frecuentes en estafas digitales. “Confía en nada, verifica todo”, recomendó Anscombe, citado por <i>CBS News</i>.</p><h2>La reacción de las plataformas frente al fenómeno</h2><p>Consultadas por <i>CBS News</i>, las principales empresas detrás de las redes donde circulan estos videos expusieron su postura y las acciones tomadas tras recibir las denuncias. TikTok aseguró que entre <b>enero y marzo</b> removió proactivamente más del 94% de los contenidos contrarios a sus políticas sobre IA antes de que fueran denunciados formalmente. <b>Meta</b>, propietaria de <b>Facebook e Instagram</b>, confirmó haber eliminado videos que infringían sus estándares publicitarios y restringido la visibilidad de otros, en concreto los relacionados con salud y bienestar, limitando su acceso a mayores de 18 años.</p><p>Meta afirmó que quienes buscan evadir controles ajustan constantemente sus métodos, lo que obliga a revisar y actualizar las medidas de seguridad. <i>CBS News</i> anotó que <b>la empresa restringió videos potencialmente dañinos</b>, reforzando las barreras para su visualización por parte de menores de edad.</p><p>En el caso de <b>YouTube</b>, la respuesta fue diferente. Aunque la plataforma dispone de mecanismos para solicitar la eliminación de contenidos hiperrealistas que imitan a individuos sin su consentimiento, indicó a <i>CBS News</i> que los videos analizados <b>no infringían sus directrices comunitarias y no serían retirados</b>. YouTube aclaró que su normativa <b>sí prohíbe la difusión de desinformación médica </b>que contradiga las recomendaciones de autoridades sanitarias locales sobre<b> enfermedades y sustancias específicas</b>.</p><img src="https://www.infobae.com/resizer/v2/C2EM5T37JBEMPC3L5TKVTR4MX4.png?auth=5ec5397d5291e424d6d5b2ac04a49c43f7e584e2715ca22f9202539ee18ad826&smart=true&width=1536&height=864" alt="El uso de inteligencia artificial facilita la creación de videos con apariencias y voces de médicos auténticos. (Imagen Ilustrativa Infobae)" height="864" width="1536"/><h2>El impacto en la confianza pública y la respuesta de los especialistas</h2><p>Joel Bervell, conocido como <i><b>“Medical Mythbuster”</b></i> en redes, expresó a <i>CBS News</i> su temor ante la capacidad de estos videos de <b>debilitar la credibilidad de la medicina frente al público</b>. Tras solicitar apoyo de sus seguidores para denunciar el uso indebido de su imagen, algunas de las grabaciones fueron retiradas, aunque el episodio<b> evidenció la vulnerabilidad de los profesionales de la salud ante estas maniobras</b>. “Cuando existen supuestos expertos difundiendo información que podría ser falsa, se distorsiona la percepción social sobre la veracidad, y eso complica que el público confíe en la ciencia y el sistema de salud”, sostuvo Bervell, de acuerdo con el medio estadounidense.</p><p>A pesar de la remoción de varios videos tras las gestiones del afectado, la dinámica de las redes y el perfeccionamiento de la IA dificultan una erradicación completa del problema. Para especialistas y usuarios, la única defensa sigue siendo<b> la verificación independiente de cualquier mensaje vinculado a la salud que circule por internet</b>.</p><p>El informe de <i>CBS News</i> concluye que el fenómeno de los <b>deepfakes médicos </b>representa un reto creciente para las plataformas digitales, los profesionales de la salud y la sociedad en general, frente a la capacidad casi ilimitada de producir y distribuir información falsa con apariencia de legitimidad.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/6KC5WYDUBZEAPKZWCVEJWRBBJY.jpg?auth=82e5fabd9f3b5b097900c541e9d0c31c8164f9a496de0df0fbe353930679e48e&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[Plataformas digitales identifican un aumento de contenido manipulado relacionado con temas de salud. (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Ciberseguridad electoral: cómo detectar deepfakes e información viral falsa en Bolivia]]></title><link>https://www.infobae.com/tecno/2025/08/13/ciberseguridad-electoral-como-detectar-deepfakes-e-informacion-viral-falsa-en-bolivia/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/08/13/ciberseguridad-electoral-como-detectar-deepfakes-e-informacion-viral-falsa-en-bolivia/</guid><dc:creator><![CDATA[Renzo Gonzales]]></dc:creator><description><![CDATA[En una época donde las plataformas digitales posibilitan tanto la inmediatez como la escasa regulación, la proliferación de bulos se ve favorecida]]></description><pubDate>Wed, 13 Aug 2025 00:00:05 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/C2EM5T37JBEMPC3L5TKVTR4MX4.png?auth=5ec5397d5291e424d6d5b2ac04a49c43f7e584e2715ca22f9202539ee18ad826&smart=true&width=1536&height=864" alt="Videos editados pueden usar la voz de personajes políticos para confundir al electorado. (Imagen Ilustrativa Infobae)" height="864" width="1536"/><p>El actual proceso electoral en Bolivia ha estado marcado por el auge de la desinformación y la circulación de contenidos manipulados, impulsados por la sofisticación creciente de la <a href="https://www.infobae.com/tecno/2025/08/12/utiliza-ia-para-reuniones-transcribe-resume-y-distribuye-tareas-sin-esfuerzo-manual/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/08/12/utiliza-ia-para-reuniones-transcribe-resume-y-distribuye-tareas-sin-esfuerzo-manual/"><b>inteligencia artificial</b></a>. El episodio ocurrido tras el encuentro entre <b>Javier Milei</b> y el candidato a vicepresidente <b>Juan Pablo Velasco</b> en el Derecha Fest en Córdoba ilustra la peligrosidad de los <a href="https://www.infobae.com/tecno/2025/07/15/el-millonario-negocio-que-desnuda-fotos-y-videos-con-ia-esta-creando-un-mercado-sin-control/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/07/15/el-millonario-negocio-que-desnuda-fotos-y-videos-con-ia-esta-creando-un-mercado-sin-control/"><b>deepfakes</b></a> en el contexto político: un video editado, en el que se le atribuyeron a Velasco frases ofensivas mediante IA, se viralizó rápidamente, generando confusión y polarización. Este tipo de herramientas, capaces de replicar la voz y la imagen de una persona, representan un enorme reto para la integridad del debate democrático, la reputación de los candidatos y la confianza del electorado.</p><p>Este contexto de sobreinformación, donde las plataformas digitales posibilitan tanto la inmediatez como la escasa regulación, ha favorecido la proliferación de bulos: desde audios manipulados con inteligencia artificial —como el caso de un falso mensaje atribuido a <b>Jorge Quiroga</b>, candidato a la presidencia, sobre los bonos sociales— hasta campañas virales difundidas por influencers y generadores de contenido, quienes hoy alcanzan a millones a través de <b>TikTok</b> y otras redes.</p><p>El fenómeno de los deepfakes no solo afecta la reputación de candidatos o partidos, sino que logra amplificar el impacto emocional sobre determinados públicos. En ese sentido, el especialista en marketing político <b>Sergio Vera</b>, indica a El País que “las personas más vulnerables a este tipo de noticias son las pertenecientes a la generación X o a los baby boomers. Si bien usan la tecnología, la han adoptado de forma tardía y no han desarrollado habilidades para diferenciar estos contenidos”. Frente a la propagación de información falsa —como historias sobre la llegada masiva de migrantes venezolanos para alterar los resultados electorales—, la función de los fact-checkers cobra una relevancia inédita.</p><img src="https://www.infobae.com/resizer/v2/X5YLZL2L3ZDXFD5OPOFGOBP5TA.JPG?auth=5249f2e34d286436b0ea02b059348685f9471dbf2e7b0ce932646c115ab2ce49&smart=true&width=6000&height=4000" alt="Jorge Quiroga. (Reuters)" height="4000" width="6000"/><p>No obstante, la sofisticación de los contenidos manipulados exige un refuerzo de las prácticas ciudadanas y empresariales para evitar la manipulación electoral.</p><h2>Cómo identificar un deepfake</h2><p>Incode, empresa enfocada en la verificación de identidad y prevención de fraudes, brinda una serie de recomendaciones para que las personas puedan detectar un deepfake.</p><ul><li><b>Verifica la fuente del contenido:</b>&nbsp;antes de compartir, comentar o aceptar como real cualquier video, audio o imagen viral, asegúrate de su procedencia. Los deepfakes suelen difundirse desde plataformas no oficiales, cuentas sin historial o perfiles anónimos. Preferir siempre materiales publicados por medios reconocidos, perfiles institucionales o cuentas verificadas ayuda a reducir el riesgo de ser víctima de información manipulada.</li><li><b>Presta atención a los detalles visuales y auditivos:</b>&nbsp;aunque cada vez más avanzados, los deepfakes aún presentan fallos sutiles que es posible identificar con una observación cuidadosa:</li><li><ul><li>Movimientos faciales poco naturales, demasiado rígidos o exagerados.</li><li>Desincronización entre la voz y el movimiento de los labios.</li><li>Iluminación inconsistente, sombras fuera de lugar o efectos de luz que no corresponden al entorno.</li><li>Bordes del rostro o partes del cuerpo borrosos, distorsionados o con cortes antinaturales.</li></ul></li></ul><img src="https://www.infobae.com/resizer/v2/H4CQ4ZCQQFARRK3WDNPFXY3KWY.png?auth=353c4c9215533e055917061420bc677727e06c3d2f09287d7dbde1712f1a9807&smart=true&width=1920&height=1080" alt="Sigue estas recomendaciones para detectar un deepfake. (Unsplash)" height="1080" width="1920"/><ul><li><b>Utiliza herramientas de verificación:</b>&nbsp;existen aplicaciones y servicios digitales enfocados a analizar imágenes y videos. Estas plataformas emplean algoritmos avanzados para detectar alteraciones que escapan al ojo humano, marcando posibles señales de manipulación digital.</li><li><b>Mantente informado y educa a tu entorno:</b>&nbsp;adoptar una actitud crítica ante los contenidos es clave. Aprender sobre las últimas tendencias en manipulación audiovisual permite reconocer los riesgos a tiempo. Compartir esta información con familiares, amigos, equipos de trabajo o en espacios comunitarios contribuye a crear una red de protección frente a los intentos de desinformación.</li><li><b>Desconfía de lo que parece demasiado bueno o impactante para ser verdad:</b>&nbsp;los deepfakes suelen buscar reacciones inmediatas, apelando a la sorpresa, la indignación o el escándalo. Si encuentras material que provoca una fuerte emoción negativa o positiva, tómate un momento para investigar y comprobar antes de reaccionar o difundir el contenido.</li></ul>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/C2EM5T37JBEMPC3L5TKVTR4MX4.png?auth=5ec5397d5291e424d6d5b2ac04a49c43f7e584e2715ca22f9202539ee18ad826&amp;smart=true&amp;width=1536&amp;height=864" type="image/png" height="864" width="1536"><media:description type="plain"><![CDATA[Videos editados pueden usar la voz de personajes políticos para confundir al electorado. (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Para la Cámara Electoral, el uso de videos falsos durante la campaña es un delito ]]></title><link>https://www.infobae.com/politica/2025/07/16/para-la-camara-electoral-el-uso-de-videos-falsos-durante-la-campana-es-un-delito/</link><guid isPermaLink="true">https://www.infobae.com/politica/2025/07/16/para-la-camara-electoral-el-uso-de-videos-falsos-durante-la-campana-es-un-delito/</guid><dc:creator><![CDATA[Facundo Chaves]]></dc:creator><description><![CDATA[El tribunal consideró que se trata de maniobras que inducen a engaño. “Configuran fenómenos de violencia electoral que distorsionan el debate público”, advirtió. El caso de Mario Negri en 2021 y el de Mauricio Macri en mayo pasado ]]></description><pubDate>Wed, 16 Jul 2025 19:03:32 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/4YWO5QDZDJELZHHI3WAZT432BY.PNG?auth=3859afa58e5d0eec7236ddef0ed1847bafa4e007403245198bf1c4c74ebda5d4&smart=true&width=529&height=298" alt="El diputado Mario Negri fue víctima de un video fake en plena campaña electoral en 2021 " height="298" width="529"/><p>La <b>Cámara Nacional Electoral</b> consideró que el uso de videos fake en campaña <b>son delitos electorales</b>, debido a que inducen a engaños y distorsionan el debate público, sobre todo cuando se difunden mediante redes sociales. La decisión fue adoptada en una causa del 2021, pero tiene relevancia actual porque en las últimas elecciones porteñas se publicó una pieza audiovisual realizada con inteligencia artificial de Mauricio Macri que falsamente anunciaba el retiro de la candidatura de Silvia Lospennato.</p><p>En concreto, el tribunal de alzada ratificó el procesamiento de una mujer acusada de difundir <b>videos falsos</b> para perjudicar la imagen de <b>Mario Raúl Negri</b>, precandidato a senador nacional por la alianza “Juntos por el Cambio”, durante la campaña de las <b>Primarias Abiertas, Simultáneas y Obligatorias (PASO) 2021</b> en Córdoba. La decisión judicial sostiene que la imputada incurrió en conductas tipificadas como engaño a los electores, delito previsto en el artículo 140 del Código Electoral Nacional.</p><p>Ese artículo establece el siguiente texto: "<b>Inducción con engaño</b>. Se impondrá prisión de dos meses a dos años al que con engaños indujere a otro a sufragar en determinada forma o a abstenerse de hacerlo".</p><p>Según la resolución, la acusada, empleada de una empresa dedicada a la comercialización de páginas publicitarias, habría publicado dos videos apócrifos en una página de Facebook gestionada por la compañía Meta. </p><p>La página fue creada por encargo con el objetivo de afectar la reputación de Negri en plena campaña electoral. Los audiovisuales, elaborados mediante técnicas de <b>deepfake</b>, mostraban la imagen del dirigente durante entrevistas reales, pero con la voz de otra persona. </p><p>En los videos, de manera falsa, se hacía decir a Negri que había financiado su campaña con dinero retenido a sus colaboradores en la Cámara de Diputados de la Nación. La voz utilizada correspondía en realidad a otro diputado nacional, extraída de una entrevista periodística.</p><p>En su fallo, la Cámara Nacional Electoral subrayó la importancia de proteger los derechos fundamentales en contextos electorales, citando normas internacionales de derechos humanos. </p><p>El tribunal remarcó que la vida, la libertad y la seguridad de las personas, garantizadas por tratados internacionales con jerarquía constitucional, adquieren especial relevancia ante tensiones electorales. </p><p>Además, señaló que el ejercicio del derecho a la participación política exige que estos derechos estén plenamente garantizados, permitiendo que electores y candidatos expresen sus ideas sin interferencias como la violencia, la intimidación o la <b>desinformación en línea</b>.</p><p>El tribunal también hizo referencia a las directrices internacionales que instan a los Estados a implementar medidas para proteger la seguridad de los candidatos, especialmente aquellos en riesgo de sufrir violencia o intimidación, incluida la violencia de género, durante los procesos electorales.</p><p>La Cámara advirtió que la <b>violencia electoral</b> y la manipulación informativa, como la denunciada en este caso, “distorsionan el debate público” y, por tanto, afectan la calidad de la democracia. </p><p>Destacó que las campañas de desinformación en redes sociales emplean técnicas sofisticadas, como la creación de perfiles falsos de dirigentes políticos y la difusión de <b>noticias falsas</b> (fake news), diseñadas para influir en la opinión pública. Estas estrategias se potencian mediante algoritmos y motores de búsqueda que amplifican su alcance, así como por la acción coordinada de comentaristas pagos, conocidos como <b>trolls</b>, y cuentas automatizadas o <b>bots</b>.</p><p>El fallo de la Cámara Nacional Electoral pone de relieve la preocupación por el impacto de la desinformación digital en los procesos democráticos y la necesidad de fortalecer los mecanismos de protección frente a estas prácticas en el ámbito electoral.</p><h2>El caso Macri</h2><p>A pocas horas de las <a href="https://www.infobae.com/elecciones-argentina/caba/" target="_blank" rel="" title="https://www.infobae.com/elecciones-argentina/caba/ ">elecciones legislativas</a> en la <b>Ciudad Autónoma de Buenos Aires</b>, se difundieron videos elaborados con IA donde se utilizó la imagen de <b>Macri</b> y de <b>Lospennato </b>con el fin de tergiversar información sobre las candidaturas de su partido político. </p><p>Ante la repercusión del hecho, desde la <b>Alianza Electoral Buenos Aires Primero</b> se concretó la denuncia ante el <b>Tribunal Electoral</b> de la Ciudad Autónoma de Buenos Aires.</p><p>En esa pieza audiovisual que tuvo un fuerte impacto en redes sociales, Macri supuestamente anunciaba el retiro de la candidatura de Lospennato y llamaba a votar por la lista libertaria encabezada por Manuel Adorni.</p><p>El PRO presentó una denuncia ante la Justicia Electoral porteña y el propio Macri manifestó: “<b>Se trata de un intento de fraude electoral</b>, que busca confundir al electorado utilizando artilugios“.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/4YWO5QDZDJELZHHI3WAZT432BY.PNG?auth=3859afa58e5d0eec7236ddef0ed1847bafa4e007403245198bf1c4c74ebda5d4&amp;smart=true&amp;width=529&amp;height=298" type="image/png" height="298" width="529"><media:description type="plain"><![CDATA[El diputado Mario Negri fue víctima de un video fake en plena campaña electoral en 2021 ]]></media:description></media:content></item><item><title><![CDATA[El millonario y peligroso negocio que “desnuda” fotos y videos con IA está creando un mercado global sin control]]></title><link>https://www.infobae.com/tecno/2025/07/15/el-millonario-negocio-que-desnuda-fotos-y-videos-con-ia-esta-creando-un-mercado-sin-control/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/07/15/el-millonario-negocio-que-desnuda-fotos-y-videos-con-ia-esta-creando-un-mercado-sin-control/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[La venta de este contenido habría generado en el último año 36 millones de dólares anuales a través de plataformas clandestinas]]></description><pubDate>Tue, 15 Jul 2025 14:44:56 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/2FYIZIMDEVDL3O4DZNQ2G6F42M.jpg?auth=e054b662bcc4b050e886139a80badd5854e5a0291a37de4643450460e430f0d1&smart=true&width=1366&height=768" alt="El desarrollo de la inteligencia artificial ha impulsado el mercado clandestino de imágenes y videos falsos de desnudos sin consentimiento. (Imágen Ilustrativa Infobae)" height="768" width="1366"/><p>El desarrollo de la <a href="https://www.infobae.com/tag/inteligencia-artificial/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/inteligencia-artificial/">inteligencia artificial</a> ha permitido que la consolidación de un mercado clandestino: los sitios y aplicaciones que permiten <b>generar imágenes y videos falsos de personas desnudas sin su consentimiento, conocidos como “nudify” o “undress”. </b></p><p>Este fenómeno, expuesto en un informe de Wired y surgido a partir de los primeros deepfakes explícitos, ha evolucionado y generado un mercado millonario, <a href="https://www.infobae.com/tecno/2025/07/14/aumentan-la-creacion-de-videos-de-abuso-infantil-generados-con-ia-lucha-contra-el-comercio-ilegal/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/07/14/aumentan-la-creacion-de-videos-de-abuso-infantil-generados-con-ia-lucha-contra-el-comercio-ilegal/">impactando negativamente la vida de mujeres, adolescentes y niñas al generar situaciones de abuso, acoso y daño psicológico.</a></p><h2>Cómo es el surgimiento y propagación de los videos alterados con IA</h2><p>El origen de los llamados “nudificadores” puede rastrearse hasta 2019, año en el que empezaron a multiplicarse herramientas que <b>utilizaban generadores de imágenes con IA para crear desnudos falsos a partir de simples fotografías. </b></p><p>El proceso, que en sus comienzos requería conocimientos técnicos avanzados y producía resultados de baja calidad,<b> se ha convertido en una práctica de fácil acceso gracias al desarrollo de plataformas y aplicaciones que automatizan el uso de algoritmos sofisticados en pocos pasos.</b></p><img src="https://www.infobae.com/resizer/v2/EFUIWZDQY5DFXL6JSAAHUUFSMI.jpg?auth=a2530e6e204bcbe227cd580507af24a4f12b7b82eba7399be781977de4eca8a4&smart=true&width=1456&height=816" alt="Los 'nudificadores' con IA generan millones de visitas y ganancias anuales, afectando principalmente a mujeres, adolescentes y niñas. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>El funcionamiento es el siguiente: el usuario sube una foto de cualquier persona (generalmente extraída de redes sociales) y <b>la herramienta la procesa para generar una imagen o video en el que la persona aparece desnuda. </b></p><p>Estos materiales suelen ser hiperrealistas, lo que maximiza su capacidad de causar daño y de engañar tanto a las víctimas como a quienes los visualizan.</p><p>Si bien los primeros “nudificadores” se centraban casi exclusivamente en imágenes, el avance de la tecnología ha permitido la manipulación y <b>fabricación de videos alterados, llevando el fenómeno a una nueva dimensión de peligrosidad y alcance. </b></p><p>Estas plataformas emplean modelos de deep learning y técnicas generativas avanzadas, que seleccionan patrones y reconstruyen partes del cuerpo inexistentes en la imagen original. <b>El resultado es una pieza visual que simula ser auténtica, indistinguible de una captura real.</b></p><img src="https://www.infobae.com/resizer/v2/7ABC3EAJFVAPPHJFXZ7ZOBC6NI.jpg?auth=2e64a42325c2cd19a5b6d4dd2a717834a1d35dfe88368503995613a04546a65a&smart=true&width=1456&height=816" alt="El avance tecnológico facilita la creación de deepfakes explícitos, intensificando el acoso y la violencia de género digital. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><h2>Cómo funciona el mercado de los videos alterados con IA</h2><p>El análisis realizado por Indicator arrojó cifras que dan cuenta de la magnitud del fenómeno. <b>Los sitios nudificadores sumaron en conjunto un promedio de 18,5 millones de visitantes mensuales durante un periodo de seis meses recientes. </b></p><p>En términos de facturación, algunas estimaciones <b>sitúan las ganancias conjuntas en hasta 36 millones de dólares anuales (33,4 millones de euros aproximadamente).</b></p><p><b>El modelo de negocio está basado en la venta de “créditos” o suscripciones que permiten a los usuarios acceder a la generación de imágenes y videos falsos</b>. Los pagos se canalizan a través de sistemas proporcionados por empresas reconocidas internacionalmente, lo que da estabilidad y anonimato a los operadores. </p><p>Además, la proliferación de programas de afiliados y la promoción de videos patrocinados, incluso con la participación de artistas para adultos, <b>alimentan las fuentes de ingresos e incrementan la notoriedad del fenómeno.</b></p><img src="https://www.infobae.com/resizer/v2/6BA4UVCARFF3RC67G3WAGXK5CM.jpg?auth=a8fc124406cce1998fae3f1794374b15b0cb60acf1514e8bef7f2bb621c9bf7f&smart=true&width=1456&height=816" alt="El modelo de negocio de los sitios nudificadores se basa en la venta de créditos y suscripciones, con pagos anónimos y programas de afiliados. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p><b>El público principal de estas páginas se concentra principalmente en Estados Unidos, seguido por India, Brasil, México y Alemania. </b>Los motores de búsqueda y las redes sociales dirigen parte del tráfico, aunque también existen estrategias orientadas a reclutar usuarios por vías alternativas, como publicidad paga y sistemas de recomendaciones.</p><p>El negocio no está libre de riesgos para quienes intentan aprovecharlo. La popularidad alcanzada ha derivado en la aparición de múltiples sitios fraudulentos, algunos operados por hackers que <b>ofrecen aplicaciones modificadas con malware para captar datos personales y financieros de los usuarios.</b></p><h2>Cuáles son las consecuencias de este mercado</h2><p><b>El crecimiento de los nudificadores ha agravado el problema del acoso sexual digital y la violencia de género en línea.</b> Además del uso masivo de imágenes robadas de redes sociales, se han registrado casos de ciberviolencia escolar en los que adolescentes “desnudan” a compañeros y compañeras para difamar o ejercer presión psicológica. </p><p>Las víctimas enfrentan un daño emocional profundo: <b>la eliminación total de estos contenidos resulta casi imposible</b>, intensificando la angustia y la sensación de vulnerabilidad.</p><img src="https://www.infobae.com/resizer/v2/S2W4GUO6TZHLZHRKKGCLWEKGFQ.jpg?auth=2120ffc18a4b3a303a92f30090c5a0373202e656100b31f381a0ab26ced7ad59&smart=true&width=1456&height=816" alt="El fenómeno ha derivado en ciberviolencia escolar y daños psicológicos profundos, con la eliminación de contenidos casi imposible.
(Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Los países con mayor volumen de usuarios y tráfico hacia estos sitios también enfrentan un desafío legislativo y judicial relevante. <b>Estados Unidos y el Reino Unido, por ejemplo, han iniciado acciones legales y regulatorias recientes. </b></p><p>El fiscal de San Francisco demandó a 16 servicios de generación de imágenes no consentidas, <b>mientras que empresas como Microsoft y Meta han identificado y enfrentado judicialmente a desarrolladores responsables de este tipo de contenidos</b>. Además, la promulgación de leyes como la <b>T</b>ake It Down Act en Estados Unidos exige a las compañías tecnológicas la retirada rápida de imágenes abusivas.</p><p>A pesar de estos avances, los expertos insisten en la insuficiencia de las respuestas actuales. Organismos y especialistas como Henry Ajder <b>señalan que solo una acción coordinada y eficaz de quienes facilitan y permiten la operación de estos negocios podría frenar el avance del fenómeno. </b></p><p>“Solo cuando empresas como estas tomen medidas específicas, empezaremos a ver progresos significativos para dificultar el acceso a estas aplicaciones y obtener beneficios de ellas”, afirmó a Wired.</p><p>Las plataformas responsables han señalado, en respuesta a investigaciones y reclamos, que sus condiciones de uso prohíben expresamente contenido ilegal y acoso. Sin embargo, la aplicación de estas políticas ha resultado en la práctica insuficiente para contener una industria que ya ha alcanzado niveles de profesionalismo y dispersión técnica muy elevados.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/2FYIZIMDEVDL3O4DZNQ2G6F42M.jpg?auth=e054b662bcc4b050e886139a80badd5854e5a0291a37de4643450460e430f0d1&amp;smart=true&amp;width=1366&amp;height=768" type="image/jpeg" height="768" width="1366"><media:description type="plain"><![CDATA[El desarrollo de la inteligencia artificial ha impulsado el mercado clandestino de imágenes y videos falsos de desnudos sin consentimiento. (Imágen Ilustrativa Infobae)]]></media:description><media:credit role="author" scheme="urn:ebu"></media:credit></media:content></item><item><title><![CDATA[Las 10 palabras esenciales que hay que conocer para dominar la IA]]></title><link>https://www.infobae.com/tecno/2025/06/25/las-10-palabras-esenciales-que-hay-que-conocer-para-dominar-la-ia/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/06/25/las-10-palabras-esenciales-que-hay-que-conocer-para-dominar-la-ia/</guid><dc:creator><![CDATA[Celeste Sawczuk]]></dc:creator><description><![CDATA[La inteligencia artificial está revolucionando el mundo, pero dominar sus conceptos requiere conocer términos claves. Desde “prompt” hasta “deepfake”, cómo funcionan estos sistemas avanzados]]></description><pubDate>Thu, 26 Jun 2025 18:23:17 +0000</pubDate><content:encoded><![CDATA[<p>La <a href="https://www.infobae.com/tag/inteligencia-artificial/" target="_blank" rel="" title="https://www.infobae.com/tag/inteligencia-artificial/"><b>Inteligencia Artificial</b></a><b> (IA)</b> ha evolucionado rápidamente y está transformando diversos aspectos de la vida cotidiana, como la forma en que interactuamos con dispositivos o de qué manera se desarrollan nuevas tecnologías.</p><p>Desde asistentes virtuales que gestionan nuestras agendas hasta complejos sistemas que aceleran el descubrimiento de fármacos, la IA ya no es una promesa futura, sino una realidad presente y omnipresente. Sin embargo, con esta expansión,<b> también ha llegado una jerga técnica que puede ser difícil de entender</b> para quienes no están familiarizados con el tema. </p><p><b>IAltanto</b>, un newsletter semanal y comunidad hispanohablante sobre inteligencia artificial, seleccionó <b>10 palabras claves</b> que son esenciales para poder navegar con seguridad en el mundo de la IA.</p><h2>1. Prompt</h2><img src="https://www.infobae.com/resizer/v2/IRNAELSML5E4VG2CDP5SZSSVS4.jpg?auth=84bab028232b5b0b0a55801dd47a76822d80dcb13730491a50a98d87c3a80502&smart=true&width=1456&height=816" alt="El término 'prompt' define la instrucción clave que guía la respuesta de los modelos de IA (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Un “prompt” es la instrucción o el conjunto de palabras que se le proporciona a una IA para que realice una determinada tarea. En términos simples, detalla <i>Learn Microsoft</i> es aquello que se pregunta o pide al modelo de IA para que genere una respuesta. </p><p>En el caso de un asistente de IA como <b>ChatGPT</b>, el prompt puede ser tan simple como una pregunta (“¿Cuál es el clima hoy?”) o una solicitud compleja (“Escribe un ensayo sobre la evolución de la IA en los últimos 20 años”). </p><p>Los prompts son fundamentales porque determinan cómo la IA procesará y entenderá tu solicitud.</p><p>Para ser efectivo, un prompt debe poseer varias características fundamentales: </p><ul><li><b>Claridad y Especificidad:</b> debe usar un lenguaje sencillo y directo, proporcionando tantos detalles como sea necesario para definir la tarea. Cuanto más específico es el prompt, mayor es la probabilidad de obtener una respuesta relevante. </li><li><b>Contexto:</b> debe proporcionar toda la información de fondo que el modelo necesita para comprender la solicitud en su totalidad. Esto incluye definir el “para qué”, “para quién” o la situación en la que se necesita la respuesta. </li><li><b>Estructura y Rol:</b> un prompt avanzado puede definir el formato de salida esperado (por ejemplo, “genera una lista con viñetas”, “responde en formato JSON”) e incluso asignar un rol a la IA (“actúa como un experto en nutrición”, “responde como si fueras Charles Dickens”) para guiar su tono y estilo. </li></ul><h2>2. Input</h2><img src="https://www.infobae.com/resizer/v2/QLJ3LHXSQNB5FALIJJSHVZ5QQ4.jpg?auth=c8f86d087220dd169ec7ea2c9248dbe5fcdd90953d4267433cce53f2f0907446&smart=true&width=1456&height=816" alt="El 'input' y el 'output' son conceptos fundamentales para entender cómo interactúan los usuarios con la IA (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>El “input” se refiere a la información que se introduce en un sistema para que este pueda procesarla. En el contexto de la IA, el input puede ser un texto, una imagen, un sonido, o incluso datos numéricos. </p><p>En un modelo de lenguaje como <b>GPT-4</b>, el input -agrega el portal de herramientas de Google-sería cualquier texto que le envíes, y la IA utiliza este input para generar una respuesta adecuada. Cuanto más detallado y preciso sea el input, más exacta será la salida.</p><h2>3. Output</h2><p>El “output” es la<b> respuesta generada por un sistema de IA</b> después de procesar un input. En otras palabras, es<b> el resultado de la acción de la IA</b> en respuesta a una solicitud. Siguiendo el ejemplo anterior, si se proporciona un texto como input (“¿Cómo funciona la IA?”), el output sería una explicación sobre el tema. </p><p>En modelos de IA avanzados como los de OpenAI, el output puede ser un texto escrito, una imagen generada, o incluso una recomendación basada en datos.</p><h2>4. LLM (Large Language Model)</h2><img src="https://www.infobae.com/resizer/v2/FWT4LEVET5GWVPWQ6QZEYTVORA.jpg?auth=a81deec278d85904cc1217d33aa6d338b709a39cd6a9b3208554745271b55286&smart=true&width=1792&height=1024" alt="Las 10 palabras esenciales para dominar la inteligencia artificial y comprender su impacto en la vida cotidiana (Imagen Ilustrativa Infobae)" height="1024" width="1792"/><p>Los LLM son una forma avanzada de inteligencia artificial diseñada y entrenada para comprender, resumir, traducir, predecir y generar lenguaje natural a una escala y con una fluidez sin precedentes. </p><p>Estos modelos, agrega IAltanto, como los conocidos<b> ChatGPT </b>de<b> OpenAI </b>o<b> Gemini </b>de<b> Google</b>, son los motores que impulsan la actual revolución de la IA generativa. </p><p>Su capacidad para realizar una amplia gama de tareas lingüísticas, desde la redacción de correos electrónicos hasta la escritura de código de programación complejo, proviene de su arquitectura y de su proceso de entrenamiento masivo. </p><p>Estos modelos se entrenan utilizando <b>datasets</b> (conjuntos de datos) masivos de textos de diversas fuentes: libros, artículos, foros, etc. <b>GPT-4</b> es uno de los ejemplos más conocidos de un <b>LLM</b>. Estos modelos se utilizan en aplicaciones como chatbots, asistentes personales, generadores de contenido y más.</p><h2>5. Token</h2><p>Los seres humanos perciben el lenguaje a través de palabras y oraciones, pero las máquinas, incluidos los LLM, no. Para que un modelo de IA pueda procesar texto, este debe ser descompuesto en unidades numéricas que el algoritmo pueda entender. Este proceso fundamental se conoce como <b>tokenización</b>, y las unidades resultantes se denominan “tokens”.</p><p>Un “token” es <b>la unidad básica de procesamiento de un modelo de lenguaje</b>. Pueden ser palabras, fragmentos de palabras o caracteres. Por ejemplo, la palabra “inteligencia” puede ser un token en algunos modelos, pero en otros, podría dividirse en varios tokens, dependiendo de cómo el modelo maneje el lenguaje. </p><p>Los modelos de IA procesan estos tokens para entender y generar respuestas. El número de tokens en un input puede influir en la calidad de la respuesta, ya que algunos modelos tienen limitaciones en la cantidad de tokens que pueden procesar de una vez.</p><h2>6. Dataset</h2><p>Un “dataset” es un conjunto organizado de datos que se utiliza para entrenar y probar modelos de IA. </p><p>Un dataset puede presentarse en múltiples formatos, pero que a menudo se visualiza como una tabla donde las filas representan registros individuales (u observaciones) y las columnas representan sus características (o variables).En el contexto del machine learning y la IA, el dataset es la materia prima fundamental que se utiliza para entrenar, validar y probar los modelos. Sin un dataset, un modelo de IA es una estructura vacía, incapaz de aprender o realizar ninguna tarea.</p><p>En el contexto de la <b>IA</b>, un dataset puede contener millones de ejemplos de texto, imágenes, audios, etc., que son utilizados por los algoritmos para aprender patrones y hacer predicciones. </p><p>Por ejemplo, un dataset de imágenes podría usarse para entrenar a un modelo de visión computarizada para reconocer objetos. Los datasets son fundamentales porque la calidad y diversidad de los datos entrenan al modelo para ser más preciso en sus tareas.</p><h2>7. Fine-tuning</h2><img src="https://www.infobae.com/resizer/v2/CRW3CSSWSFHPBKQG3AASSXYVFQ.jpg?auth=d91d3ab02400e524263ddb48c95e0753744c0a51ef838c66f3d9209d46913128&smart=true&width=1920&height=1080" alt="El fine-tuning adapta modelos de IA preentrenados a tareas específicas para mejorar su rendimiento (Imagen Ilustrativa Infobae)" height="1080" width="1920"/><p>El “fine-tuning”<b> (ajuste fino)</b> es el proceso de mejorar un modelo preentrenado adaptándolo a un conjunto de datos más específico. Según detalla el portal educativo de <i>CEI.</i>, un modelo de IA generalmente es entrenado con una gran cantidad de datos de propósito general. Sin embargo, a través del <b>fine-tuning</b>, el modelo se adapta a un conjunto de datos más pequeño y especializado, lo que le permite ser más efectivo en una tarea específica. </p><p>Este proceso es clave para mejorar la precisión de un modelo en tareas como la traducción de lenguajes, la clasificación de imágenes, o incluso la generación de textos en áreas muy técnicas.</p><h2>8. Prompt Engineering</h2><p>El<b> </b>“prompt engineering”<b> </b>(Diseño de prompts) es la práctica de diseñar preguntas o solicitudes<b> </b>de manera que maximicen la efectividad de la IA, explica <i>Learn Microsoft</i>. Es un campo en crecimiento debido a que, aunque los modelos de IA como <b>GPT-4</b> pueden generar respuestas de alta calidad, los resultados varían considerablemente dependiendo de cómo se estructura el prompt. </p><p>El prompt engineering implica entender cómo se formula una solicitud para obtener respuestas precisas, útiles y relevantes. Puede incluir detalles como la longitud del prompt, el tono y la claridad de la solicitud.</p><h2>9. Alucinación</h2><p>Una “alucinación” en IA ocurre cuando un modelo <b>genera respuestas que son incorrectas, no verificadas o completamente inventadas</b>. Esto es particularmente relevante en modelos de lenguaje como <b>GPT-4</b>, donde la IA puede producir respuestas convincentes pero erróneas, sobre todo cuando no tiene suficiente información para generar una respuesta precisa. </p><p>Las alucinaciones son un desafío significativo porque los modelos de IA no siempre pueden distinguir entre hechos y errores, lo que puede generar desinformación si no se tiene cuidado.</p><h2>10. Deepfake</h2><p>Un “deepfake” es una técnica que utiliza IA para <b>crear o modificar imágenes, audios y videos de manera que parezcan realistas, pero son falsificados</b>. Estos contenidos pueden mostrar a personas diciendo o haciendo cosas que nunca sucedieron.</p><p>Los deepfakes se generan a partir de un proceso de entrenamiento de redes neuronales profundas, que aprenden a imitar a la perfección los rostros, voces o comportamientos humanos. Aunque se pueden usar con fines creativos, los deepfakes también<b> representan una amenaza en términos de desinformación y privacidad.</b></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/UY6NDAGBWBD3ZPLEFZTJ54P4SU.jpg?auth=4e036aff34de4035c5f7f458bffbe376a283e733858af8be15174d3422a0dbf8&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[El avance de la inteligencia artificial está transformando el mercado laboral, generando desempleo en sectores automatizados. – (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Acusan al diputado De Loredo por crear un video hecho con IA del gobernador Llaryora: “Acá hay un delito” ]]></title><link>https://www.infobae.com/politica/2025/06/25/acusan-al-diputado-de-loredo-por-crear-un-video-hecho-con-ia-del-gobernador-llaryora-aca-hay-un-delito/</link><guid isPermaLink="true">https://www.infobae.com/politica/2025/06/25/acusan-al-diputado-de-loredo-por-crear-un-video-hecho-con-ia-del-gobernador-llaryora-aca-hay-un-delito/</guid><description><![CDATA[El legislador de la UCR compartió una secuencia audiovisual del mandatario, con un mensaje adulterado tecnológicamente. Lo había difundido como una pieza de campaña. El senador cordobés Miguel Siciliano tildó el hecho de una “gravedad inusitada” y pidió que la Justicia intervenga]]></description><pubDate>Wed, 25 Jun 2025 14:42:27 +0000</pubDate><content:encoded><![CDATA[<p>El diputado nacional y jefe del bloque de la UCR, <b>Rodrigo de Loredo</b>, difundió en sus redes sociales un video manipulado mediante <a href="https://www.infobae.com/tag/inteligencia-artificial/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/inteligencia-artificial/"><b>inteligencia artificial (IA)</b></a> para recrear la imagen y voz del gobernador de Córdoba, <a href="https://www.infobae.com/tag/martin-llaryora/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/martin-llaryora/"><b>Martín Llaryora</b></a>, con un discurso falso. El oficialismo cordobés repudió la pieza comunicacional y acusó a De Loredo de cometer un delito. </p><p>El diputado provincial y jefe del bloque oficialista en la Legislatura de Córdoba, <b>Miguel Siciliano</b>, manifestó su preocupación por el video <i>fake</i>, en la que se le adjudican palabras y posturas jamás pronunciadas, y que son funcionales al discurso de la oposición local.</p><p>“<b>No tengo dudas que acá hay un delito</b>. Cualquier persona que utilice el rostro, la voz, la cara, el cuerpo de otra persona para hacerle decir algo que no dijo constituye un delito, cuando lo comete un diputado nacional del voto popular. Es de una gravedad inusitada que no podemos relativizar”, enfatizó <b>Siciliano</b>, en diálogo con <b>Infobae en Vivo</b>, durante el programa <b>de la mañana</b>, que cuenta con la conducción de <b>Gonzalo Sánchez, Carolina Amoroso, Ramón Indart y Cecilia Boufflet</b>. </p><p>El repudio del bloque de “<b>Hacemos por Córdoba</b>” se produce en la previa a las elecciones legislativas, en las que la cercanía De Loredo, el gobierno nacional encabezado por <b>Javier Milei</b> y la estrategia de la oposición cordobesa saltan al centro de la discusión pública. El propio diputado nacional intentó evitar la polémica, luego de los antecedentes del malestar que <a href="https://www.infobae.com/politica/2025/05/18/mauricio-macri-dijo-que-el-video-hecho-con-ia-fue-una-cosa-de-loquitos-y-denuncio-un-intento-de-fraude-digital/" target="_blank" rel="noreferrer" title="https://www.infobae.com/politica/2025/05/18/mauricio-macri-dijo-que-el-video-hecho-con-ia-fue-una-cosa-de-loquitos-y-denuncio-un-intento-de-fraude-digital/">generó un video similar de Silvia Lospennato (PRO) en las elecciones porteñas</a>. Desde sus redes, el cordobés aclaró desde un primer momento que se trataba de un video ficticio realizado con IA; sin embargo, no pudo eludir las críticas de sus adversarios. </p><p>En ese marco, Siciliano fue terminante con su repudio, y deslizó sobre la presunta participación de "<b>servicios de inteligencia detrás de la construcción del video</b>”. “Es un video muy bien hecho, muy bien planteado, no me extrañaría que haya servicios de inteligencia detrás de esto. Es el jefe de bloque del radicalismo. Además de ser una discusión moral y ética, prefiero que los políticos dando el debate y no acudiendo a esto”, subrayó</p><p>El dirigente de “Hacemos por Córdoba” insistió en que el video no impactaría a la figura de <b>Llaryora</b>, sino que “se afecta a la institución de la gobernación” y a la “provincia”. Por lo tanto, el legislador reclamó la acción del Poder Judicial: “Debería actuar, porque es gravísimo. Mañana van a ir por los periodistas, a ustedes les van a hacer decir algo que no dijeron, les van a hacer decir cualquier cosa, o a los dirigentes empresariales. Naturalizar esto es gravísimo”. </p><p>Y sumó: “No me importa quién lo hace. Sí sé que, que ante su clara necesidad de ser diputado en la elección que viene -como Llaryora defiende al campo, defiende la universidad pública, la obra pública y defiende a Córdoba-, querer colgarse en la lista de Milei lo lleva a cometer un delito”. </p><img src="https://www.infobae.com/resizer/v2/K662JPCDURBF3ETEH64JWW6LRQ.png?auth=a33b5f3760376e307778285c64e31c99236b8b148dc45a166f38a5e65809fec9&smart=true&width=1307&height=499" alt="" height="499" width="1307"/><p>Otros sectores políticos de Córdoba también cuestionaron el video. En el ámbito político local, la <b>Mesa Provincia-Municipios</b>, que agrupa a intendentes de diferentes partidos, publicó una carta donde expresó su preocupación por la utilización de la imagen y palabra de Llaryora de manera adulterada. </p><p>Entre los firmantes figura <b>Roberto Casiari</b>, intendente de Vicuña Mackenna y presidente del Foro de Intendentes Radicales. Con un comunicado, se subrayó que “manipular su imagen y su palabra con fines políticos no sólo constituye un acto de irresponsabilidad, sino también una grave falta ética que daña la institucionalidad, el diálogo democrático y atenta contra la buena fe”. Además, advirtió que “la mentira fabricada y la degradación del adversario por medios artificiales no pueden tener lugar en una democracia madura”.</p><p>La postura de los referentes cercanos a De Loredo fue respaldar al dirigente. <b>Matías Gvozdenovich</b>, jefe de la bancada de la UCR, consideró “raro” que el Gobierno provincial se sintiera ofendido por el video y argumentó que solo “se pone en evidencia el estado real de la provincia”. <b>Alejandra Ferrero</b>, también legisladora radical, criticó al oficialismo por “matar con impuestos y tarifazos” y sostuvo que el Gobierno se moviliza por un video “cuando la IA traduce su doble discurso”.</p><img src="https://www.infobae.com/resizer/v2/AIS4QWDHSZCQHEYWS43SBDKZW4.png?auth=4d20e825953c8520049a85959d1ae32b27a02b470c69a1c6ea620534db0278a8&smart=true&width=852&height=442" alt="" height="442" width="852"/><p><b>Infobae en Vivo </b>te acompaña cada día en YouTube con entrevistas, análisis y la información más destacada, en un formato cercano y dinámico.</p><p>• De 9 a 12: <b>Gonzalo Sánchez, Carolina Amoroso, Ramón Indart </b>y <b>Cecilia Boufflet</b>.</p><p>• De 18 a 21: <b>Jesica Bossi, Diego Iglesias, María Eugenia Duffard </b>y <b>Federico Mayol</b>.</p><p>Actualidad, charlas y protagonistas, en vivo. Seguinos en nuestro canal de <b>YouTube </b><a href="https://www.youtube.com/infobae" target="_blank" rel="noreferrer" title="https://www.youtube.com/infobae">@infobae</a>.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/K662JPCDURBF3ETEH64JWW6LRQ.png?auth=a33b5f3760376e307778285c64e31c99236b8b148dc45a166f38a5e65809fec9&amp;smart=true&amp;width=1307&amp;height=499" type="image/png" height="499" width="1307"/></item><item><title><![CDATA[Cae en Arequipa sujeto que creaba videos sexuales con IA: tenía más de 50 deepfakes de mujeres sin su consentimiento]]></title><link>https://www.infobae.com/peru/2025/06/19/cae-en-arequipa-creador-de-pornografia-con-ia-tenia-mas-de-50-deepfakes-sexuales-de-mujeres/</link><guid isPermaLink="true">https://www.infobae.com/peru/2025/06/19/cae-en-arequipa-creador-de-pornografia-con-ia-tenia-mas-de-50-deepfakes-sexuales-de-mujeres/</guid><dc:creator><![CDATA[Tomás Ezerskii]]></dc:creator><description><![CDATA[El investigado actuaba desde el año 2014 bajo distintos alias. El Código Penal contempla hasta 10 años de cárcel si se acredita la distribución de material pornográfico que afecta a personas sin su consentimiento]]></description><pubDate>Thu, 19 Jun 2025 17:20:16 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/QHJRE74V7NA7FDB3XKWLWIBZXY.png?auth=3cd1acf65f9118da90a68657b38385478a0d0ff122861a9433ae6c36835b7874&smart=true&width=1920&height=1080" alt="Composición: Infobae Perú" height="1080" width="1920"/><p><a href="https://www.infobae.com/peru/2025/06/18/adios-a-la-incertidumbre-conoce-las-condiciones-climaticas-en-arequipa/" target="_blank" rel="noreferrer" title="https://www.infobae.com/peru/2025/06/18/adios-a-la-incertidumbre-conoce-las-condiciones-climaticas-en-arequipa/">Arequipa </a>se ha convertido en el escenario de un nuevo caso que evidencia cómo las tecnologías digitales pueden ser utilizadas para perpetrar crímenes cada vez más sofisticados. La <b>Fiscalía Provincial Transitoria Especializada en Ciberdelincuencia</b> ejecutó esta semana un allanamiento con fines de <b>detención preliminar contra Marco Huaracha (37)</b>, quien es investigado por suplantar la identidad de mujeres en <b>Instagram y Facebook</b>, con el objetivo de manipular sus imágenes. La modalidad empleada ha encendido las alarmas: el uso de<a href="https://www.infobae.com/tecno/2025/06/19/experto-en-inteligencia-artificial-dice-que-no-tendra-hijos-hasta-que-neuralink-logre-unir-exitosamente-el-cerebro-con-las-computadoras/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/06/19/experto-en-inteligencia-artificial-dice-que-no-tendra-hijos-hasta-que-neuralink-logre-unir-exitosamente-el-cerebro-con-las-computadoras/"> <b>inteligencia artificial (IA)</b></a> para crear imágenes falsas de contenido sexual explícito.</p><p>Las autoridades informaron que el investigado actuaba desde el año 2014 bajo distintos alias. Usando <b>tecnología de edición y, después, generación de imágenes basadas en </b><a href="https://www.infobae.com/peru/2025/06/19/inteligencia-artificial-peruana-identifica-danos-por-terremotos-con-precision-a-partir-de-fotografias/" target="_blank" rel="noreferrer" title="https://www.infobae.com/peru/2025/06/19/inteligencia-artificial-peruana-identifica-danos-por-terremotos-con-precision-a-partir-de-fotografias/"><b>inteligencia artificial</b>,</a> habría creado una red de perfiles falsos de mujeres, con los que interactuaba con personas cercanas a las víctimas, generando confusión, acoso y daños a su imagen. </p><p>Durante la intervención, se incautaron laptops, celulares y discos duros donde se hallaron carpetas con más de <b>50 archivos de mujeres no identificadas</b>, cuyas fotos fueron manipuladas mediante técnicas conocidas como <a href="https://www.infobae.com/peru/2025/04/27/inteligencia-artificial-una-nueva-aliada-de-la-ciberdelincuencia/" target="_blank" rel="noreferrer" title="https://www.infobae.com/peru/2025/04/27/inteligencia-artificial-una-nueva-aliada-de-la-ciberdelincuencia/"><b>deepfake</b> </a>para mostrar escenas sexualizadas.</p><h2>Deepfakes y suplantación: así operaba la red de engaño digital</h2><img src="https://www.infobae.com/resizer/v2/OCEMSEHDRBHQFCYRKXUAL3VAGY.png?auth=6473bf78f055c3af86f72e694d26053ffc441e994bfe170c6df9bf5cefd8973c&smart=true&width=1444&height=823" alt="Foto: Ministerio Público" height="823" width="1444"/><p>Durante la revisión de los dispositivos del detenido, los agentes hallaron carpetas con <b>fotografías alteradas mediante </b><a href="https://www.infobae.com/tecno/2025/02/11/inteligencia-artificial-desafia-las-citas-71-de-los-peruanos-sospecha-haber-hablado-con-un-bot/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tecno/2025/02/11/inteligencia-artificial-desafia-las-citas-71-de-los-peruanos-sospecha-haber-hablado-con-un-bot/"><b>tecnología deepfake</b></a>. Estas imágenes, en su mayoría <b>no identificadas</b>, fueron manipuladas para mostrar a las víctimas en contextos sexuales —desnudas o semidesnudas— sin su consentimiento. El material era posteriormente compartido en grupos cerrados, aumentando el daño y la exposición no autorizada.</p><p>El uso de <a href="https://www.infobae.com/peru/2025/04/20/congreso-aprueba-regulacion-de-inteligencia-artificial-endurecen-penas-para-quienes-cometan-delitos-usando-ia/" target="_blank" rel="noreferrer" title="https://www.infobae.com/peru/2025/04/20/congreso-aprueba-regulacion-de-inteligencia-artificial-endurecen-penas-para-quienes-cometan-delitos-usando-ia/"><b>deepfakes </b></a><b>sexuales, </b>montajes digitales que combinan rostros reales con cuerpos ajenos para crear contenido falso, ha registrado un crecimiento sin precedentes a nivel mundial. Según el último informe de <b>Home Security, “State of Deepfakes 2023”</b>, entre 2022 y 2023 hubo un <b>incremento del 464%</b> en la producción y circulación de este tipo de contenido en internet. Más grave aún: <b>el 98% de los deepfakes encontrados tienen carácter pornográfico</b>, y en <b>el 99% de los casos involucran a mujeres</b> como víctimas principales.</p><img src="https://www.infobae.com/resizer/v2/AMWHW6QZABCSZOD46MC2CWOHOI.jpg?auth=2f35bb19e2b7e1d5d8e1d89af814ab2bb8772ad2756e467ec447b2048f387bd3&smart=true&width=612&height=344" alt="Los deepfakes pornográficos registraron un aumento del 20% en Colombia, posicionando al país como el segundo con mayor incidencia entre 15 naciones estudiadas - crédito iStock" height="344" width="612"/><p>Estas manipulaciones no requieren ya conocimientos avanzados. Existen <b>aplicaciones móviles y sitios web gratuitos</b> que permiten a cualquier usuario crear estos contenidos en pocos minutos. Algunas incluso ofrecen catálogos de rostros, plantillas prediseñadas y algoritmos de ajuste automático para mejorar el realismo de las imágenes generadas. Esto ha disparado el número de casos de <b>acoso digital y violencia sexual no consensuada</b>, muchas veces sin que las víctimas sean conscientes de que están siendo expuestas.</p><p>En el caso de Huaracha, el <a href="https://www.infobae.com/peru/2025/06/18/enfrentamiento-en-el-ministerio-publico-debilita-la-credibilidad-y-dana-la-confianza-ciudadana-senala-premier-eduardo-arana/" target="_blank" rel="noreferrer" title="https://www.infobae.com/peru/2025/06/18/enfrentamiento-en-el-ministerio-publico-debilita-la-credibilidad-y-dana-la-confianza-ciudadana-senala-premier-eduardo-arana/">Ministerio Público</a> también obtuvo el <b>levantamiento del secreto de las comunicaciones</b>, lo que permitirá analizar en profundidad el flujo de datos y posibles destinatarios del contenido compartido. El detenido se encuentra bajo custodia mientras se amplía la investigación.</p><h2>Medidas contra la suplantación en redes sociales</h2><img src="https://www.infobae.com/resizer/v2/LRLEM5RKXBDXLHSGNBCOHAWR6A.png?auth=1f5e4382765af51d15ffd93ebeb9c430cc8927214245724b54a4f85a679810df&smart=true&width=1920&height=1080" alt="La seguridad en la mensajería instantánea ha tomado relevancia ante el incremento de casos de suplantación de identidad en WhatsApp. Fotos: Andina/Composición Infobae" height="1080" width="1920"/><p>Las autoridades reiteran que este tipo de delitos informáticos, aunque nuevos, ya cuentan con <a href="https://www.infobae.com/peru/2025/04/17/ministro-de-justicia-adelanta-la-pronta-inauguracion-del-segundo-penal-con-inteligencia-artificial-en-peru/" target="_blank" rel="noreferrer" title="https://www.infobae.com/peru/2025/04/17/ministro-de-justicia-adelanta-la-pronta-inauguracion-del-segundo-penal-con-inteligencia-artificial-en-peru/">sanciones penales en el Perú. </a>La Ley N.° 30096, Ley de Delitos Informáticos, establece penas de hasta <b>8 años de prisión</b> para quienes cometan actos de suplantación de identidad con agravantes como contenido sexual. Además, el Código Penal contempla hasta <b>10 años</b> si se acredita la distribución de material pornográfico que afecta a personas sin su consentimiento.</p><p>No existe una solución infalible para no ser víctima de un<i> </i>deepfake, pero sí una serie de recomendaciones que reducen el riesgo:</p><ul><li><b>Utilizar contraseñas fuertes y cambiarlas periódicamente.</b></li><li><b>Activar la autenticación en dos pasos</b>&nbsp;en todas las redes sociales.</li><li><b>Limitar la visibilidad de la información personal</b>, como número de teléfono, dirección de correo o ubicación.</li><li><b>Revisar las solicitudes de amistad</b>&nbsp;y no aceptar perfiles desconocidos sin verificar su autenticidad.</li><li><b>Supervisar regularmente tu nombre en buscadores</b>&nbsp;y redes para detectar posibles cuentas que se hagan pasar por ti.</li></ul>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/QHJRE74V7NA7FDB3XKWLWIBZXY.png?auth=3cd1acf65f9118da90a68657b38385478a0d0ff122861a9433ae6c36835b7874&amp;smart=true&amp;width=1920&amp;height=1080" type="image/png" height="1080" width="1920"><media:description type="plain"><![CDATA[Composición: Infobae Perú]]></media:description></media:content></item><item><title><![CDATA[Japón aprueba su primera legislación en materia de desarrollo y uso de IA]]></title><link>https://www.infobae.com/espana/agencias/2025/05/28/japon-aprueba-su-primera-legislacion-en-materia-de-desarrollo-y-uso-de-ia/</link><guid isPermaLink="true">https://www.infobae.com/espana/agencias/2025/05/28/japon-aprueba-su-primera-legislacion-en-materia-de-desarrollo-y-uso-de-ia/</guid><dc:creator><![CDATA[Newsroom Infobae]]></dc:creator><description><![CDATA[Japón establece normativa para el uso seguro de inteligencia artificial, previene delitos como la difamación y la infracción de derechos de autor, y promueve investigación y desarrollo en este sector clave]]></description><pubDate>Fri, 30 May 2025 01:01:57 +0000</pubDate><content:encoded><![CDATA[<p>Tokio, 28 may (EFECOM).- Jap&#243;n aprob&#243; este mi&#233;rcoles la primera legislaci&#243;n del pa&#237;s en materia de desarrollo y uso de inteligencia artificial (IA), para abordar los peligros que entra&#241;a el empleo inadecuado de esta tecnolog&#237;a, como la difusi&#243;n de informaci&#243;n falsa o los &#39;deepfake&#39;, aunque no ha incluido disposiciones penales.</p><p>La legislaci&#243;n se ha desarrollado con base en los reglamentos actualmente existentes a nivel internacional en materia de IA para evitar da&#241;os como la violaci&#243;n de derechos e intereses del p&#250;blico, seg&#250;n explic&#243; en su momento el Gobierno central.</p><p>La nueva ley establece que, si bien la IA es una de las bases del desarrollo socioecon&#243;mico, tambi&#233;n tiene potencial para la comisi&#243;n de delitos y fomentar la infracci&#243;n de derechos de autor, as&#237; como la filtraci&#243;n de datos personales, por lo que establece una serie de medidas para garantizar un uso seguro.</p><p>En virtud de la normativa, el Gobierno podr&#225; abrir una investigaci&#243;n en caso de que suceda algo grave vinculado a la IA y, en funci&#243;n de los resultados, brindar&#225; orientaci&#243;n y asesoramiento a las empresas, adem&#225;s de proporcionar informaci&#243;n al p&#250;blico.</p><p>La ley no estipula ning&#250;n tipo de sanci&#243;n y en casos en los que existan sospechas de un delito se usar&#225;n otras normativas vigentes para abordar el problema, como el C&#243;digo Penal o la Ley de Derechos de Autor.</p><p>Ante el creciente n&#250;mero de delitos en los que se ha visto involucrado el uso de IA para crear im&#225;genes y v&#237;deos de contenido pornogr&#225;fico, el Parlamento japon&#233;s ha aprobado otra resoluci&#243;n complementaria que exige adoptar medidas m&#225;s en&#233;rgicas contra los &#39;deepfake&#39;, contenido digital manipulado con IA para imitar o reemplazar la apariencia o la voz de una persona real.</p><p>La nueva ley se&#241;ala tambi&#233;n que ser&#225; un ente del Gobierno el que establezca unas directrices b&#225;sicas para promover la investigaci&#243;n, el desarrollo y el uso adecuados de la IA, as&#237; como para mejorar la competitividad de las empresas niponas a nivel internacional.</p><p>La normativa define a la IA como &quot;una tecnolog&#237;a importante para la seguridad nacional&quot;, poco explotada en el pa&#237;s hasta el momento.</p><p>De acuerdo al &#250;ltimo Libro Blanco de Informaci&#243;n y Comunicaciones del Ministerio del Interior, s&#243;lo un 9 % de los japoneses est&#225; habituado a usar IA, frente al 56 % de los chinos o el 45 % de los estadounidenses, y s&#243;lo en la mitad de las empresas niponas se usa IA generativa, frente al 85 % de Estados Unidos y el 84 % de China.</p><p>Tokio est&#225; invirtiendo unos 700 millones de d&#243;lares en infraestructura y otros recursos vinculados con la IA, unas diez veces que Pek&#237;n y casi mil veces menos que Washington, seg&#250;n una encuesta de la Universidad de Stanford (EE.UU.). EFECOM</p>]]></content:encoded></item><item><title><![CDATA[Sebastián Cáceres brinda su apoyo a Alana Flores tras ser víctima del “deepfake”]]></title><link>https://www.infobae.com/mexico/deportes/2025/05/29/sebastian-caceres-brinda-su-apoyo-a-alana-flores-tras-ser-victima-del-deepfake/</link><guid isPermaLink="true">https://www.infobae.com/mexico/deportes/2025/05/29/sebastian-caceres-brinda-su-apoyo-a-alana-flores-tras-ser-victima-del-deepfake/</guid><dc:creator><![CDATA[Mariana Campos]]></dc:creator><description><![CDATA[El futbolista del América también fue señalado en redes sociales luego del escándalo que se generó en torno a su pareja actual 
]]></description><pubDate>Thu, 29 May 2025 19:28:19 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/QQ3YZHHN6NC4XLRHLYHJYMECOY.jpg?auth=b7dd7d6360c47077c8c0ad99b0304605fd56ea54f8dcddd6c4d41a040b954ffa&smart=true&width=1920&height=1080" alt="Archivo" height="1080" width="1920"/><p>Durante los últimos días el internet no ha sido un buen lugar para la influencer regiomontana <b>Alana Flores</b> pues fue víctima de ‘<i><b>deepfake</b></i>’ en donde se mostraron una serie de imágenes en donde la muestran en situaciones íntimas que, de acuerdo con ella, no son reales. Ante ello,<b> Sebastián Cáceres</b>, novio de la famosa, no dudó en pronunciarse de manera pública pues incluso él fue blanco de críticas. </p><p>Aunque Alana aseguró que ya está tomando acciones legales y buscará llegar hasta las últimas consecuencias para dar con el responsable de este delito, <b>Cáceres también se vio afectado por los comentarios en la red</b>. En varios de los comentarios se mencionaron burlas en contra del futbolista de las Águilas pues algunos usuarios incluso alegaron una posible infidelidad por parte de la mexicana. </p><p>Ante los constantes ataques que ambos han recibido se habló de que podría haber una posible ruptura entre ambos, sin embargo, desde sus redes sociales, Sebastián Cáceres dejó en claro que una imagen no va a hacer que deje a su novia y mostró su total apoyo a la dueña de Raniza FC, así como su desaprobación por la forma en la que la han afectado: “La gente que no tiene nada que hacer se pone a inventar cosas con tal de hacer daño a los demás, <b>por suerte no todos tenemos ese estilo de vida tan miserable</b>”, fueron sus palabras que acompañaron el video de Alana en donde pide justicia. </p><img src="https://www.infobae.com/resizer/v2/AY5GH6AL2JHITPBCJ5C5ZDYV7I.jpeg?auth=48efaff5456693cde4874ae075549993d973a14449fb508fcb7a5bbd07049b4d&smart=true&width=1170&height=2259" alt="La joven influencer atraviesa un momento complicado en su carrera pública. (IG Sebastián Cáceres)" height="2259" width="1170"/><h2>Un momento complicado para la influencer</h2><p>La influencer y streamer mexicana Alana Flores ha denunciado públicamente ser víctima de un ataque digital mediante la creación y difusión de una imagen íntima falsa generada con inteligencia artificial (IA). La fotografía, que comenzó a circular en redes sociales el pasado 27 de mayo, ha provocado una ola de reacciones y ha llevado a Flores a considerar acciones legales contra el presunto responsable.</p><p>En un video publicado en su cuenta de Instagram, Flores explicó que la imagen en cuestión no es auténtica y que fue manipulada utilizando tecnología de deepfake. “Hay una imagen falsa de mí que está siendo difundida en redes sociales, que ha sido alterada ya sea por Inteligencia Artificial o sea por una persona, <b>el caso es que es una imagen que no soy yo</b>”, declaró la influencer. </p><p>Flores también señaló que esta no es la primera vez que enfrenta una situación similar, aunque en esta ocasión la gravedad del incidente la ha llevado a considerar abandonar las redes sociales y sus proyectos actuales. “Me hace sentir con mucha vulnerabilidad e impotencia estar en esta situación que ya no sé qué hacer (...) <b>siento que estoy atrapada en un círculo de odio del que no tengo salida</b>”, expresó.</p><h2>¿Qué sigue para Alana Flores?</h2><p>La influencer, originaria de Monterrey, Nuevo León, ha ganado popularidad en redes sociales por sus transmisiones en vivo y su participación en eventos deportivos. Actualmente, cuenta con un equipo de fútbol llamado Ranizana FC en la <b>Kings League</b>, torneo creado por el exfutbolista Gerard Piqué, y tiene pactada una pelea de boxeo con <b>Gala Montes </b>el próximo 17 de agosto en el Palacio de los Deportes de la Ciudad de México. </p><p>En cuanto a las acciones legales, Flores afirmó haber identificado al presunto responsable de la difusión de la imagen falsa. “Para los que dicen que si voy a demandar a una IA, tengo a la persona que lo inició y, aunque haya borrado su cuenta @chainsant1, sé que fue él”, escribió en su cuenta de X (anteriormente Twitter). </p><p>El caso de<b> Alana Flores </b>ha reavivado el debate sobre el uso indebido de herramientas de inteligencia artificial para la creación de contenido falso, especialmente aquel que afecta la privacidad y la reputación de las personas. Las deepfakes, que combinan “deep learning” (aprendizaje profundo) y “fake” (falso), permiten generar videos, audios o imágenes falsos pero muy realistas, representando una amenaza creciente en el ámbito digital.</p><p>La situación ha generado una ola de apoyo hacia la influencer, mientras que expertos en ciberseguridad y derechos digitales han enfatizado la necesidad de establecer regulaciones más estrictas para prevenir y sancionar este tipo de prácticas.</p><p>Flores ha manifestado que, derivado de esta situación, ha buscado ayuda médica y psicológica, y está evaluando su continuidad en el ámbito digital y deportivo. Su caso pone de relieve los desafíos que enfrentan las figuras públicas en la era de la inteligencia artificial y la importancia de contar con mecanismos legales y tecnológicos para proteger su integridad.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/QQ3YZHHN6NC4XLRHLYHJYMECOY.jpg?auth=b7dd7d6360c47077c8c0ad99b0304605fd56ea54f8dcddd6c4d41a040b954ffa&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:description type="plain"><![CDATA[Archivo]]></media:description></media:content></item><item><title><![CDATA[Una experta en ciberseguridad nos cuenta cómo explicarle a nuestros abuelos cómo reconocer un ‘deepfake’: “Si el vídeo te sorprende mucho, es probable que sea falso” ]]></title><link>https://www.infobae.com/espana/2025/05/29/una-experta-en-ciberseguridad-nos-cuenta-como-explicarle-a-nuestros-abuelos-como-reconocer-un-deepfake-si-el-video-te-sorprende-mucho-es-probable-que-sea-falso/</link><guid isPermaLink="true">https://www.infobae.com/espana/2025/05/29/una-experta-en-ciberseguridad-nos-cuenta-como-explicarle-a-nuestros-abuelos-como-reconocer-un-deepfake-si-el-video-te-sorprende-mucho-es-probable-que-sea-falso/</guid><dc:creator><![CDATA[Fede Sáenz Martínez]]></dc:creator><description><![CDATA[La criminóloga María Aperador da varios “truquillos prácticos y fáciles de entender” para identificar un ‘deepfake’
]]></description><pubDate>Thu, 29 May 2025 05:37:02 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/WRBSQJWPZVC53P3ADQ5CIXGHWA.jpg?auth=2822340eab618891de485aceabfb85ae1ccf235f447c759ea1dd36fc5c31130c&smart=true&width=1920&height=1080" alt="Una experta en ciberseguridad nos cuenta cómo explicarle a nuestros abuelos cómo reconocer un ‘deepfake’ (@mariaperadorcriminologia)" height="1080" width="1920"/><p>“Mira este video de aquí”, presenta su publicación<b> María Aperador, una criminóloga</b> que “protege de los cibermalos”, según explica en la descripción de su perfil de TikTok, @mariaperadorcriminologia, a través del cual comparte consejos de ciberseguridad para sus casi 100 mil seguidores. </p><p>“Esto que ves aquí”, continúa, refiriéndose a un video que muestra a - quien parece ser - Elon Musk con 20 años menos, encendiendo un mechero. Pero, en realidad, no es el empresario sudafricano: “Esto que ves aquí <b>es un</b><a href="https://www.infobae.com/mexico/2025/05/27/alana-flores-es-victima-del-deepfake-y-anuncia-acciones-legales-contra-usuario/" target="_blank" rel="noreferrer" title="https://www.infobae.com/mexico/2025/05/27/alana-flores-es-victima-del-deepfake-y-anuncia-acciones-legales-contra-usuario/"><i><b> deepfake</b></i></a><i>, </i>y <a href="https://www.infobae.com/america/2024/04/15/el-auge-de-los-deepfakes-como-la-inteligencia-artificial-esta-remodelando-la-realidad/" target="_blank" rel="noreferrer" title="https://www.infobae.com/america/2024/04/15/el-auge-de-los-deepfakes-como-la-inteligencia-artificial-esta-remodelando-la-realidad/">es la realidad</a> a la que nos vamos a enfrentar a partir de ahora como sociedad". La IA y la tecnología de procesamiento de video está ya lo suficientemente avanzada como para que resulte casi imposible distinguir entre una imagen real y una generada por algún ente algorítmico. </p><p>“Una de las preguntas que me hacéis como experta en ciberseguridad es cómo le podemos explicar a nuestros mayores que<b> </b><a href="https://www.infobae.com/espana/agencias/2025/05/22/los-juristas-alertan-del-riesgo-de-que-los-deepfakes-lleguen-a-todo-tipo-de-procesos-judiciales/" target="_blank" rel="noreferrer" title="https://www.infobae.com/espana/agencias/2025/05/22/los-juristas-alertan-del-riesgo-de-que-los-deepfakes-lleguen-a-todo-tipo-de-procesos-judiciales/"><b>cualquier vídeo puede ser falso</b></a> y sobre todo, cómo podemos<b> enseñarles a detectarlos</b> para evitar que caigan en estafas y engaños”. Al final, es más fácil que una persona que tenga la tecnología menos controlada no se de cuenta de que lo que está viendo es, en realidad, falso, aunque hoy por hoy ya cualquiera podría ser engañado. Así que lo mejor será escuchar los “truquillos prácticos y fáciles de entender” de una experta en la materia. </p><img src="https://www.infobae.com/resizer/v2/MTZIQYBMXNAELDAW2MTP3L37LU.jpg?auth=d830005342e2620c74ce4ce56eff1c2ea50b40174e42113ace963ace4901c68e&smart=true&width=1920&height=1273" alt="Crédito: Freepik" height="1273" width="1920"/><h2>Cómo identificar un deepfake, según una criminóloga </h2><p>“En primer lugar <b>nos tenemos que fijar en los labios</b>. Si en el vídeo la boca no está sincronizada con el sonido y lo que está diciendo, lo más probable es que sea falso. Otra de las cosas que podemos mirar son <b>los ojos</b>. Si vemos que hay parpadeos que no son naturales o parecen muy robóticos, es porque el vídeo está hecho con inteligencia artificial”. </p><p>Más allá de eso, María recuerda que “también tenemos que fijarnos en<b> la voz</b>. Si el tono de la voz es muy robótico es porque han utilizado piezas de la voz original, pero al pasarla a la inteligencia artificial no queda del todo natural”, además de prestar atención a los comentarios de otros usuarios: “Cuando vemos este tipo de vídeos en Instagram, por ejemplo, si entramos en comentarios, ya<b> hay personas alertando </b>que está hecho con inteligencia artificial, así que esta puede ser otra de las señales que nos dé indicios de que es falso”. </p><p>Y concluye con un “consejo final”: “Si el vídeo <b>te sorprende mucho</b>, lo más probable es que sea falso, porque lo que buscan con este tipo de contenido es alertarnos, asustarnos o meternos algún tipo de información que no es del todo veraz. Mi objetivo con todo lo que hago es que <b>Internet no sea un lugar hostil</b>. Así que para evitar todo este tipo de estafas, manipulaciones y engaños, estoy creando la aplicación de BeValk, una aplicación que va a ser como nuestro guardián digital. Va a alertarnos de todo tipo de estafas, de fraudes y de manipulaciones y nos va a guiar.”</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/WRBSQJWPZVC53P3ADQ5CIXGHWA.jpg?auth=2822340eab618891de485aceabfb85ae1ccf235f447c759ea1dd36fc5c31130c&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:description type="plain"><![CDATA[Una experta en ciberseguridad nos cuenta cómo explicarle a nuestros abuelos cómo reconocer un ‘deepfake’ (@mariaperadorcriminologia)]]></media:description></media:content></item><item><title><![CDATA[¿Quién es Alana Flores, la influencer regiomontana víctima de ‘deepfake’?]]></title><link>https://www.infobae.com/mexico/2025/05/28/quien-es-alana-flores-la-influencer-regiomontana-victima-de-deepfake/</link><guid isPermaLink="true">https://www.infobae.com/mexico/2025/05/28/quien-es-alana-flores-la-influencer-regiomontana-victima-de-deepfake/</guid><dc:creator><![CDATA[Adriana Castillo]]></dc:creator><description><![CDATA[La streamer tiene pactada una pelea de box con Gala Montes en el ‘Palacio de los Deportes’]]></description><pubDate>Wed, 28 May 2025 19:52:14 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/5MAU3KXQ6JFJLEPDQ3G46TMBPY.jpg?auth=7b6cfed04987fcb393dd228b8da234e71088b1109e7d88d3bcb018f2ded5fc20&smart=true&width=1920&height=1080" alt="(IG: @alanafloresf)" height="1080" width="1920"/><p>La influencer mexicana <b>Alana Flores</b> se posicionó entre las principales tendencias de redes sociales por una poderosa razón. Y es que se viralizó<a href="https://www.infobae.com/mexico/2025/04/12/pepe-aguilar-reacciona-a-la-cancion-viral-de-angela-aguilar-contra-belinda-y-cazzu-creada-con-ia-video/#:~:text=El%20patriarca%20de%20la%20dinast%C3%ADa,presidenta%20de%20M%C3%A9xico%2C%20Claudia%20Sheinbaum." target="_blank" rel="noreferrer" title="https://www.infobae.com/mexico/2025/04/12/pepe-aguilar-reacciona-a-la-cancion-viral-de-angela-aguilar-contra-belinda-y-cazzu-creada-con-ia-video/#:~:text=El%20patriarca%20de%20la%20dinast%C3%ADa,presidenta%20de%20M%C3%A9xico%2C%20Claudia%20Sheinbaum."><b> una imagen que vulnera su integridad</b></a>, la cual habría sido creada con <i><b>Inteligencia Artificial </b></i><b>(IA)</b>. </p><p>“Hay una imagen falsa de mí que está siendo difundida en redes sociales, que ha sido alterada ya sea por Inteligencia Artificial o sea por una persona, el caso es que es una imagen que no soy yo, <b>es una imagen en la que utilizaron mi cara y está siendo alterada, nunca me la tomaron y nunca pasó</b>”, declaró en Instagram. </p><p>Sin profundizar en detalles, la influencer confesó que ya había pasado por una situación de <i><b>deepfake </b></i>(alterar cualquier material digital con herramientas de IA)<i><b> </b></i>en anteriores ocasiones, pero no con la misma gravedad. Asimismo, <b>negó tener fotos desnuda o sexuales</b> en sus dispositivos móviles. </p><p>“Me hace sentir con mucha vulnerabilidad e impotencia estar en esta situación que ya no sé qué hacer (...) <b>siento que estoy atrapada en un círculo de odio del que no tengo salida</b>”, lamentó. </p><p>Alana Flores confesó que, derivado de esta situación, no solo ha considerado abandonar las redes sociales, también su proyecto en la Kings League y su pasión por el boxeo. Incluso, reveló que esta situación ya llevaron a buscar <b>ayuda médica y psicológica</b>. </p><p>Finalmente, dio a conocer que analizando la posibilidad de proceder legalmente en contra de la persona que habría alterado la imagen en cuestión. </p><img src="https://www.infobae.com/resizer/v2/5ZNOHAS2NJFGPPKSEQQYAVHA7M.png?auth=05d0d06f0dde5900411d5c00327d1c8dc1539d91e59e2951af0689363c741763&smart=true&width=747&height=829" alt="(IG: @alanafloresf)" height="829" width="747"/><h2>¿Quién es Alana Flores?</h2><p>Alana Flores es una influencer mexicana originaria de Monterrey, Nuevo León, que en los últimos años ha ganado popularidad en redes sociales tanto por sus<i> streaming</i> como por su participación estelar en proyectos de alcance internacional.</p><p>Y es que tiene un equipo de fútbol llamado <b>Ranizana FC</b>. Éste pertenece a la <b>Kings League</b>, un famoso torneo de fútbol creado por el exfutbolista español,<b> Gerard Piqué</b>, y que desde hace unos meses se juega en México. </p><p>Eso no es todo, la influencer también ha peleado en la<b> Velada del Año</b>, un torneo de boxeo creado por el influencer Ibai Llanos. </p><img src="https://www.infobae.com/resizer/v2/LUAN5N625FHP5OK6TXLDOC7L3Y.png?auth=2b0a19f4f22ecf873793c5a4991a28ee00955021445585ecf2bc3636c78c28cc&smart=true&width=639&height=810" alt="(IG: @alanafloresf)" height="810" width="639"/><p>De hecho, Alana Flores tiene pactada una pelea de box con <b>Gala Montes </b>el próximo 17 de agosto en el Palacio de los Deportes de la Ciudad de México. Esto como parte del campeonato <b>‘Supernova Strikers Drigenes’</b>. </p><p>En Instagram cuenta con 4.7 millones de seguidores, mientras que en TikTok está a punto de llegar a los 7 millones de fans. </p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/5MAU3KXQ6JFJLEPDQ3G46TMBPY.jpg?auth=7b6cfed04987fcb393dd228b8da234e71088b1109e7d88d3bcb018f2ded5fc20&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:description type="plain"><![CDATA[(IG: @alanafloresf)]]></media:description></media:content></item><item><title><![CDATA[Donald Trump promulgó una ley que prohíbe la extorsión sexual y los desnudos creados por inteligencia artificial]]></title><link>https://www.infobae.com/america/mundo/2025/05/20/donald-trump-promulgo-una-ley-que-prohibe-la-extorsion-sexual-y-los-desnudos-creados-por-inteligencia-artificial/</link><guid isPermaLink="true">https://www.infobae.com/america/mundo/2025/05/20/donald-trump-promulgo-una-ley-que-prohibe-la-extorsion-sexual-y-los-desnudos-creados-por-inteligencia-artificial/</guid><dc:creator><![CDATA[Charlotte Causit]]></dc:creator><description><![CDATA[La “Take It Down Act” es la primera norma federal destinada a combatir la difusión de imágenes explícitas y ficticias sin el consentimiento del individuo. Los culpables se enfrentarán hasta tres años de prisión]]></description><pubDate>Tue, 20 May 2025 13:54:55 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/WFR62PBOAZEWVB5FIH5Q3XFJGQ.jpg?auth=f910aee3b9f611355e33a76a21821229c6c426cb148af1c9ab6f5fd24e0063c0&smart=true&width=4512&height=3008" alt="El presidente de Estados Unidos, Donald Trump, habla durante la ceremonia de firma de la Ley Take it Down, en el jardín de rosas de la Casa Blanca en Washington, D.C., EE. UU., el 19 de mayo de 2025. REUTERS/Kevin Lamarque" height="3008" width="4512"/><p>El presidente de <b>Estados Unidos, Donald Trump</b>, promulgó el lunes una ley que penaliza la difusión no consentida de imágenes pornográficas reales o generadas por inteligencia artificial (IA), en particular con fines de extorsión sexual, un fenómeno en crecimiento.</p><p>El proyecto de ley, denominado <b>“Take It Down Act” (Ley Elimínalo, en español)</b>, promovido por la primera dama Melania Trump, fue aprobado previamente por el Senado y la Cámara de Representantes de Estados Unidos, donde obtuvo un amplio apoyo bipartidista.</p><p>“Esta será <b>la primera ley federal destinada a combatir la difusión de imágenes explícitas y ficticias sin el consentimiento del individuo</b>”, dijo el presidente republicano en una ceremonia en el Jardín de las Rosas de la Casa Blanca.</p><p>“Cualquiera que difunda intencionalmente imágenes explícitas sin el consentimiento de otra persona <b>enfrentará hasta tres años de prisión</b>”, afirmó Trump, y se refirió también a la “responsabilidad civil” de los sitios de redes sociales que alojan estas imágenes pero “se niegan a eliminarlas rápidamente”.</p><p>La difusión no consentida de imágenes sexuales, a veces creadas con la ayuda de IA, es un fenómeno que afecta principalmente a niñas y mujeres, incluidas algunas celebridades como la cantante Taylor Swift y la legisladora demócrata Alexandria Ocasio-Cortez. </p><img src="https://www.infobae.com/resizer/v2/Q3WUP5LECRARNMT7TYUJT5VS2E.jpg?auth=dd24cd70fad03a09a2b121b831fb67621395ad76df286415154de8b405466e73&smart=true&width=800&height=533" alt="Esta es la primera ley federal destinada a combatir la difusión de imágenes explícitas y ficticias sin el consentimiento del individuo. REUTERS/Loren Elliott" height="533" width="800"/><p>Con la popularización de las herramientas de IA, la creación de estos montajes de fotos o videos hiperrealistas se ha vuelto más sencilla y ha abierto la puerta a su uso generalizado con fines de acoso o humillación, tomando por sorpresa a legisladores de todo el mundo.</p><h2>Vergüenza </h2><p>“Esta legislación es un <b>paso decisivo </b>en nuestros esfuerzos por garantizar que todos los estadounidenses, especialmente los jóvenes, puedan sentirse mejor protegidos contra ataques a su imagen o identidad a través de imágenes no consensuadas”, dijo Melania Trump, durante una rara aparición pública junto a su marido. </p><p>La primera dama, que respaldó la iniciativa en marzo, invitó a la ceremonia en la Casa Blanca a varias jóvenes víctimas de prácticas de este tipo. </p><p>Entre ellas estaba una adolescente de Texas que descubrió a finales de 2023 montajes hiperrealistas (‘deepfakes’ o ultrafalsedades) de carácter sexual de ella y varias de sus compañeras, creados sin su consentimiento por un alumno de su escuela y luego compartidos en la red Snapchat.</p><p>“Las chicas simplemente lloraron y lloraron y lloraron, estaban <b>avergonzadas</b>”, dijo entonces a la AFP su madre, Anna Berry McAdams, preocupada de que las imágenes pudieran resurgir en el futuro. </p><img src="https://www.infobae.com/resizer/v2/VQP6RQSJLZC5RLBIMZPUH7FI7Y.jpg?auth=516222d2ace796095ba2a07611133c769dfe093d828edeadacadfb5d07a89e4d&smart=true&width=1920&height=1080" alt="Hasta ahora, sólo unos pocos estados de Estados Unidos, incluidos California y Florida, tenían leyes que penalizaban la creación y publicación de imágenes sexuales falsas. " height="1080" width="1920"/><p>“Esto podría afectarlas por el resto de sus vidas”, afirmó, al señalar la impotencia de las víctimas para actuar y defender sus derechos.</p><h2>Riesgo de censura </h2><p><b>Hasta ahora, sólo unos pocos estados de Estados Unidos, incluidos California y Florida, tenían leyes que penalizaban la creación y publicación de imágenes sexuales falsas. </b></p><p>La nueva ley federal representa por tanto un “paso significativo” en la lucha contra este fenómeno, declaró a la AFP Renée Cummings, criminóloga e investigadora en inteligencia artificial de la Universidad de Virginia. </p><p>“Pero su eficacia dependerá de su rápida y fiable aplicación, de sanciones severas contra los autores de estos actos y de su adaptabilidad en tiempo real a las amenazas digitales emergentes”, insistió. </p><p>Y advirtió: <b>“Debemos garantizar que las medidas legislativas protejan a la sociedad y castiguen a los perpetradores (...) sin sofocar” la libertad de expresión</b>.</p><img src="https://www.infobae.com/resizer/v2/NKYVBFEAKNGFFKJAT5NKY7SDHE.jpg?auth=6c182e2a239e64da24cfc41a42fb993d801ff4c152286be44fd29f06aa97087c&smart=true&width=6245&height=4733" alt="El presidente de Estados Unidos, Donald Trump, y la representante estadounidense María Salazar (republicana por Florida) se dan la mano durante la ceremonia de firma de la Ley Take it Down, en el jardín de rosas de la Casa Blanca en Washington, D.C., EE. UU., el 19 de mayo de 2025. REUTERS/Kevin Lamarque" height="4733" width="6245"/><p>Este riesgo ha sido destacado por varias asociaciones de defensa de las libertades civiles, que han manifestado su preocupación por el riesgo de censura. </p><p>“Si bien proteger a las víctimas de estas odiosas invasiones de la privacidad es un objetivo legítimo, las buenas intenciones por sí solas<b> no son suficientes para hacer una buena ley</b>”, dijo la Electronic Frontier Foundation, al denunciar “definiciones vagas y falta de garantías” que podrían llevar a la censura. </p><p>La ley requiere que las plataformas de redes sociales y sitios web tengan procedimientos para eliminar rápidamente imágenes íntimas no consensuadas tras la notificación de una víctima.</p><p><i>(con información de AFP)</i></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/W5PA2ECW2FFGVIIYBY5V623TOA.jpg?auth=10142051d5c50a89cbb65f730f865a02704a12f902d978e8d328d38678f6b190&amp;smart=true&amp;width=7464&amp;height=5175" type="image/jpeg" height="5175" width="7464"><media:description type="plain"><![CDATA[First lady Melania Trump signs the bill during the ceremony for the Take it Down Act, in the Rose Garden of the White House in Washington, D.C., U.S., May 19, 2025. REUTERS/Kevin Lamarque]]></media:description><media:credit role="author" scheme="urn:ebu">Kevin Lamarque</media:credit></media:content></item><item><title><![CDATA[Inteligencia artificial: ¿una nueva aliada de la ciberdelincuencia?]]></title><link>https://www.infobae.com/peru/2025/04/27/inteligencia-artificial-una-nueva-aliada-de-la-ciberdelincuencia/</link><guid isPermaLink="true">https://www.infobae.com/peru/2025/04/27/inteligencia-artificial-una-nueva-aliada-de-la-ciberdelincuencia/</guid><dc:creator><![CDATA[Marlan Landio]]></dc:creator><description><![CDATA[La inteligencia artificial impulsa avances sorprendentes, pero también abre puertas a nuevas amenazas como la ciberdelincuencia y los deepfakes. En Perú, los delitos informáticos crecieron un 40% en 2024]]></description><pubDate>Sun, 27 Apr 2025 11:00:01 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/7OPDOJDWTJFRJBGNRGIAIJCC4Y.jpg?auth=80d55fb426611e9bbff944f1d1699d1638ca22577ba9a8c2312c25a3b326db78&smart=true&width=1920&height=1080" alt="Nuevas modalidades de estafa son orquestadas gracias a inteligencia artificial. (Foto: Andina)" height="1080" width="1920"/><p>La tecnología ha derribado fronteras, ha conectado al mundo a una velocidad impensable décadas atrás y ha puesto el conocimiento al alcance de todos. En este entorno interconectado, las oportunidades florecen en campos como la educación, la ciencia, los negocios o la salud. Pero este avance vertiginoso también tiene su lado oscuro: <b>el auge de la ciberdelincuencia potenciada por la inteligencia artificial (IA)</b>.</p><p>En el Perú, esta amenaza no es una abstracción. <b>Solo en 2024 se reportaron más de 42 mil denuncias por delitos informáticos</b>, un aumento alarmante de casi 40 % respecto al año anterior, según datos del Sistema Informático de Denuncias Policiales (SIDPOL). Este crecimiento no es casual. Los ciberdelincuentes están incorporando tecnologías de IA para lanzar ataques más veloces, más difíciles de rastrear y mucho más efectivos. Desde el robo de datos personales hasta el phishing y la ingeniería social, la IA se ha convertido en una aliada peligrosa de quienes operan fuera de la ley.</p><img src="https://www.infobae.com/resizer/v2/JGRW4CTUKFHFFFCS4OZKYHWKDI.jpg?auth=8324823e7a484d86feabef11a55ba76b772e26bb24ea8053e87e864401ff2af4&smart=true&width=7680&height=4320" alt="Los deepfakes, creados con redes generativas antagónicas, son una amenaza creciente para la autenticidad de la información visual y auditiva. (Shutterstock)" height="4320" width="7680"/><p>Uno de los fenómenos más inquietantes es el de los <b>deepfakes</b>. Estas manipulaciones digitales hiperrealistas —creadas gracias a redes generativas antagónicas (GAN)— permiten reemplazar rostros y voces en fotos o videos con una precisión que raya en lo imposible. Cualquiera puede convertirse en víctima de una campaña de desinformación, chantaje o difamación con solo una imagen como punto de partida. Las consecuencias, tanto personales como sociales, son devastadoras.</p><p>Lo más preocupante es que detectar estas falsificaciones es cada vez más difícil. Los modelos de IA más recientes, como los de difusión, generan imágenes y videos con un nivel de detalle tal que los sistemas de verificación tradicionales no logran distinguir lo real de lo falso. Esta difuminación de los límites entre lo auténtico y lo artificial pone en jaque a medios de comunicación, autoridades y ciudadanos por igual. ¿En qué podemos confiar cuando la evidencia visual o auditiva puede ser completamente fabricada?</p><img src="https://www.infobae.com/resizer/v2/WRMEUSOO6RGRFBHYBQUIDDFDW4.png?auth=ee3fb0e9105090a77957ad842d274c569da4c2a59f0a28598a803c0ffc41d967&smart=true&width=1200&height=700" alt="Los deepfakes se presentan como una amenaza creciente, capaces de manipular imágenes y videos de manera peligrosa. (Freepik)" height="700" width="1200"/><p>Ante este panorama, es urgente actuar. Los Estados deben invertir en tecnología, actualizar sus marcos legales y promover la cooperación internacional. Pero tan importante como eso es educar. Necesitamos una ciudadanía alfabetizada digitalmente, capaz de identificar riesgos, proteger su información y ejercer un pensamiento crítico frente a lo que consume en línea.</p><p>La<b> inteligencia artificial</b> no es, en sí misma, el problema. De hecho, puede ser una gran aliada si se orienta al bien común. Pero, como toda herramienta poderosa, su uso debe estar guiado por principios éticos, marcos normativos sólidos y una vigilancia constante. De lo contrario, estaremos dejando que el futuro sea escrito por algoritmos diseñados no para servir a la humanidad, sino para aprovechar sus vulnerabilidades.</p><img src="https://www.infobae.com/resizer/v2/IOFSGV3LYREK3FNOR4AXM4BY4M.jpeg?auth=8635beba60fd4ce0c65a484bd8f742808f452b4c87b536575ab2237622c3b423&smart=true&width=1600&height=600" alt="" height="600" width="1600"/>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/S3PIYM6K65GT3KQRUC4B6SJAUQ.jpeg?auth=64e3e04e94d9ecfdae43246b661961276ff235ffa4e63d80b094830022a10d0f&amp;smart=true&amp;width=1600&amp;height=900" type="image/jpeg" height="900" width="1600"/></item><item><title><![CDATA[Se estrena en Polonia la película que recrea a Putin con IA y parodia su biografía]]></title><link>https://www.infobae.com/america/agencias/2025/01/10/se-estrena-en-polonia-la-pelicula-que-recrea-a-putin-con-ia-y-parodia-su-biografia/</link><guid isPermaLink="true">https://www.infobae.com/america/agencias/2025/01/10/se-estrena-en-polonia-la-pelicula-que-recrea-a-putin-con-ia-y-parodia-su-biografia/</guid><dc:creator><![CDATA[Newsroom Infobae]]></dc:creator><description><![CDATA[La película "Putin" utiliza tecnología deepfake para ofrecer una visión parodias del líder ruso, explorando su vida y temores en un contexto de crítica social y política]]></description><pubDate>Sat, 05 Apr 2025 04:18:40 +0000</pubDate><content:encoded><![CDATA[<p><p>Cracovia (Polonia), 10 ene (EFE).- Este fin de semana se estrena en los cines de Polonia &quot;Putin&quot;, una pel&#237;cula que usa la tecnolog&#237;a &quot;deepfake&quot; o ultrafalseada para superponer la imagen del l&#237;der ruso, Vlad&#237;mir Putin, a la de un actor y mostrar una biograf&#237;a del jefe del Kremlin en clave par&#243;dica.</p></p><p><p>El filme, dirigido por el cineasta polaco Patryk Vega, conocido por sus comedias irreverentes sobre la pol&#237;tica y el crimen organizado, ha generado gran expectaci&#243;n debido a la guerra y, tras debutar en las pantallas de Polonia, se estrenar&#225; en otros 63 pa&#237;ses.</p></p><p><p>La pel&#237;cula explora seis d&#233;cadas de la vida de Putin, desde su infancia hasta su Presidencia y la invasi&#243;n a gran escala de Ucrania en febrero de 2022, entrelazando eventos documentados con elementos ficticios.</p></p><p><p>En &quot;Putin&quot;, se presenta al l&#237;der ruso como un hombre despiadado y hambriento de poder, capaz de ordenar la muerte de sus oponentes sin remordimiento pero que, al saberse solo y odiado, rompe a llorar en privado y rememora su tortuosa infancia.</p></p><p><p>Con el lema &quot;el poder absoluto nunca es suficiente&quot;, la pel&#237;cula est&#225; llena de escenas impactantes que alternan el humor negro y grotesco con una especie de semblanza psicol&#243;gica -o patol&#243;gica- de un Putin que proyecta sus frustraciones contra el mundo.</p></p><p><p>Para lograr una representaci&#243;n realista, Vega combin&#243; la actuaci&#243;n del actor Sławomir Sobala, quien pas&#243; dos a&#241;os estudiando los gestos y el lenguaje corporal de Putin, con inteligencia artificial para superponer el rostro del mandatario en la pantalla.</p></p><p><p>El resultado, seg&#250;n el director, es una imagen que ning&#250;n actor podr&#237;a haber logrado, ni siquiera con las mejores t&#233;cnicas de maquillaje o caracterizaci&#243;n.</p></p><p><p>&quot;Todo el mundo tiene miedo de Vladimir Putin (pero) en mi pel&#237;cula, &#233;l es un hombre aterrorizado que tiene miedo de la muerte”, escribi&#243; el director en redes sociales.  </p></p><p><p>&quot;Mi tesis es que Putin es un cobarde... quer&#237;a exponer a Putin, para permitir que la audiencia se acerque a &#233;l como a un tigre enjaulado, pero mostrarles que este tigre tambi&#233;n tiene miedo&quot;, a&#241;adi&#243; Vega.</p></p><p><p>Algunos cr&#237;ticos cuestionan la &#233;tica de utilizar IA para recrear la imagen de una persona real sin su consentimiento, pero el realizador polaco lo defiende porque, seg&#250;n &#233;l, &quot;se trata de una obra art&#237;stica con un importante inter&#233;s social&quot;.</p></p><p><p>Seg&#250;n declar&#243; hace unos meses, Vega ten&#237;a planeado hacer una pel&#237;cula sobre g&#225;nsteres rusos pero, despu&#233;s de la invasi&#243;n rusa de Ucrania en 2022, decidi&#243; centrarse en &quot;el mayor g&#225;ngster de Rusia&quot; y comenz&#243; a trabajar en la producci&#243;n, con un presupuesto de 15 millones de euros.</p></p><p><p>El director polaco asegura que su trabajo atrajo el inter&#233;s de agentes de inteligencia rusos, quienes supuestamente se hicieron pasar por compradores estadounidenses y le ofrecieron 200.000 d&#243;lares por el gui&#243;n. EFE</p></p>]]></content:encoded></item><item><title><![CDATA[Identifica cómo los ciberdelincuentes están creando contenido falso con IA para estafarte]]></title><link>https://www.infobae.com/tecno/2025/03/25/identifica-como-los-ciberdelincuentes-estan-creando-contenido-falso-con-ia-para-estafarte/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/03/25/identifica-como-los-ciberdelincuentes-estan-creando-contenido-falso-con-ia-para-estafarte/</guid><dc:creator><![CDATA[Santiago Neira]]></dc:creator><description><![CDATA[Los criminales están utilizando herramientas para falsificar textos, clonar voces y manipular imágenes con fines extorsivos]]></description><pubDate>Tue, 25 Mar 2025 21:26:00 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/LQ4LCF5KRJFOHEQCDRG3E23FFI.jpg?auth=c8af74ec1c5a159864096175a32922aff882c3dc49235a5cb941ff36f7caca4c&smart=true&width=1920&height=1080" alt="La IA está siendo utilizada por ciberdelincuentes para crear contenido falso como textos, imágenes y audios, facilitando fraudes, desinformación y manipulación política - (Imagen ilustrativa Infobae)" height="1080" width="1920"/><p>La<a href="https://www.infobae.com/tag/inteligencia-artificial/" target="_blank"><b> inteligencia artificial</b></a><b> </b>(IA) ha revolucionado diversas industrias, desde la medicina hasta la educación, pero también ha abierto la puerta a un nuevo tipo de delincuencia. Los <b>ciberdelincuentes</b>, al aprovechar las capacidades de la IA, han comenzado a<b> </b><a href="https://www.infobae.com/tecno/2025/03/10/asi-puedes-identificar-si-una-noticia-es-falsas-o-no-10-trucos-que-no-sabias/" target="_blank"><b>generar contenido falso </b></a><b>con fines malintencionados</b>, como el fraude, la difamación, la manipulación política y social, entre otros.</p><p>Utilizando herramientas avanzadas, estos delincuentes <b>crean textos, imágenes, vídeos y audios falsos que pueden resultar extremadamente convincentes</b>. Esta tecnología no solo ha facilitado la creación de contenido engañoso, también ha transformado la forma en que los atacantes operan en línea.</p><p>Según información suministrada por el Instituto Nacional de Ciberseguridad de España (Incibe), la IA está siendo utilizada para generar fake news o noticias falsas, diseñadas para desinformar y manipular a la opinión pública. Un ejemplo claro de esto son los<b> generadores de texto como ChatGPT</b>, que permiten crear artículos completos con un estilo muy similar al de los periodistas profesionales.</p><img src="https://www.infobae.com/resizer/v2/ME4KDJDQ35DPLMZNAV4PQDNIYY.jpg?auth=187829faf70706d1a72fb5f905a09e9bee5731b6831a7e0a2bb747ae8e07134b&smart=true&width=1456&height=816" alt="La inteligencia artificial ha permitido a los ciberdelincuentes generar contenido engañoso de alta calidad, desde noticias falsas hasta deepfakes, afectando la opinión pública y suplantando identidades - (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Esta capacidad de producir contenido escrito de alta calidad ha permitido a los ciberdelincuentes difundir desinformación de forma masiva.</p><h2>Cómo crean imágenes falsas los ciberdelincuentes</h2><p>Además de los generadores de texto, los ciberdelincuentes también <b>utilizan IA para crear contenido visual y auditivo falsificado</b>. Herramientas como <b>DeepFaceLab permiten la creación de deepfakes</b>, alterando vídeos de manera que son casi indistinguibles de los reales.</p><p>Estas herramientas utilizan redes neuronales para mapear y superponer rostros, creando vídeos falsos en los que personas como políticos o celebridades pueden aparecer diciendo o haciendo cosas que nunca ocurrieron.</p><img src="https://www.infobae.com/resizer/v2/N4I3K7LHIBD5JOXJIHHLLH3DMQ.jpg?auth=54ee8beea4a76dc302d244b293691f176427bcfc01cce7cfeb4590c561fe04bb&smart=true&width=1456&height=816" alt="Con herramientas avanzadas, los ciberdelincuentes crean fake news, deepfakes y clonaciones de voz para manipular la opinión pública y realizar fraudes - (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>La <b>capacidad de manipular vídeos</b> de esta manera ha sido aprovechada para difundir propaganda, suplantar identidades y afectar la reputación de figuras públicas.</p><h2>Cómo puede la IA llegar a clonar una voz</h2><p>Por otro lado, la clonación de voz es otro de los avances que los ciberdelincuentes explotan. <b>Programas como Lyrebird permiten replicar con alta precisión la voz de cualquier persona</b>. Usando esta tecnología, los atacantes pueden crear audios falsos, en los que una persona parece estar pronunciando palabras o haciendo declaraciones que nunca dijo.</p><p>Esto no solo es utilizado para difundir rumores o declaraciones falsas, también se ha utilizado en fraudes económicos. Un caso real reportado por el Incibe describe cómo<b> ciberdelincuentes utilizaron una voz clonada para estafar a una persona</b>, haciendo que creyera que un familiar cercano estaba solicitando dinero en una emergencia. La víctima, al reconocer la voz, accedió a transferir una cantidad considerable de dinero.</p><img src="https://www.infobae.com/resizer/v2/TFZRVJPUKRCVXAYSZ5CERKBQW4.jpg?auth=48f012423aa0dfd2060d42f18d472dba9b2f0a3323510a78e0664b76676248da&smart=true&width=1456&height=816" alt="Los ciberdelincuentes ahora usan IA para generar textos, imágenes y audios falsos, desde noticias falsas hasta videos manipulados, con fines maliciosos - (Imagen Ilustrativa Infobae)" height="816" width="1456"/><h2>Cómo no caer en los engaños creados con IA</h2><p><b>Texto</b>: En el caso de artículos o publicaciones escritas, es importante verificar la coherencia y la gramática del contenido. Los textos generados por IA pueden presentar errores sutiles, como repeticiones innecesarias o incoherencias en el estilo, que no son comunes en textos escritos por humanos.</p><p><b>Vídeo</b>: Los deepfakes a menudo presentan anormalidades, como un número excesivo de parpadeos o movimientos faciales poco naturales. También puede haber incongruencias entre el rostro y el cuerpo, o la calidad del sonido puede no coincidir con la imagen, mostrando desfases o tonos extraños.</p><p><b>Audio</b>: En el caso de audios generados por IA, como en el caso de la clonación de voces, se puede detectar variaciones inusuales en el tono o el ritmo del habla. Además, la falta de ruido de fondo o la presencia de sonidos extraños puede ser indicativo de manipulación.</p><p><b>Imágenes</b>: Las imágenes generadas o alteradas por IA a menudo presentan detalles finos defectuosos, como manos con dedos desproporcionados o fondos que no se alinean correctamente. También se puede notar que la iluminación y las sombras no son coherentes en toda la imagen.</p><h2>Qué herramientas hay para verificar el contenido falso generado por IA</h2><p>Afortunadamente, existen herramientas específicas que pueden ayudar a los usuarios a detectar contenido falso generado por IA. Según el Instituto Nacional de Ciberseguridad, algunas de las herramientas más efectivas incluyen:</p><ul><li><b>Detectores de IA para texto</b>: Herramientas como GPTZero y Copyleaks permiten analizar el contenido escrito y determinar si ha sido generado por IA. Estas herramientas son capaces de detectar patrones lingüísticos y estructuras gramaticales que son característicos de los modelos de lenguaje artificial.</li><li><b>Herramientas de detección de multimedia</b>: Para vídeos y audios falsos, existen plataformas como Deepware, que permiten analizar y detectar deepfakes con alta precisión. Además, VerifAI y Resemble Detect permiten verificar si un contenido ha sido alterado o generado mediante IA.</li></ul>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/LQ4LCF5KRJFOHEQCDRG3E23FFI.jpg?auth=c8af74ec1c5a159864096175a32922aff882c3dc49235a5cb941ff36f7caca4c&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:description type="plain"><![CDATA[La IA está siendo utilizada por ciberdelincuentes para crear contenido falso como textos, imágenes y audios, facilitando fraudes, desinformación y manipulación política - (Imagen ilustrativa Infobae)]]></media:description><media:credit role="author" scheme="urn:ebu"></media:credit></media:content></item><item><title><![CDATA[Hong Kong detiene a 31 personas que usaban tecnología 'deepfake' para estafar a inversores]]></title><link>https://www.infobae.com/america/agencias/2025/01/05/hong-kong-detiene-a-31-personas-que-usaban-tecnologia-deepfake-para-estafar-a-inversores/</link><guid isPermaLink="true">https://www.infobae.com/america/agencias/2025/01/05/hong-kong-detiene-a-31-personas-que-usaban-tecnologia-deepfake-para-estafar-a-inversores/</guid><dc:creator><![CDATA[Newsroom Infobae]]></dc:creator><description><![CDATA[Las autoridades de Hong Kong desmantelan una red de fraude que usaba tecnología de 'deepfake' para estafar a jóvenes inversores en criptomonedas de Taiwán, Singapur y Malasia, recuperando millones en ganancias ilícitas]]></description><pubDate>Tue, 25 Mar 2025 18:02:51 +0000</pubDate><content:encoded><![CDATA[<p><p>Hong Kong, 5 ene (EFE).- Las autoridades de Hong Kong detuvieron a 31 personas, entre ellas un futbolista local, que empleaban tecnolog&#237;a de imagen ultrafalsa (&#39;deepfake&#39;) para inducir a sus v&#237;ctimas a invertir en criptomonedas, informaron este domingo medios locales. </p></p><p><p>Los estafadores, cuya identidad no ha trascendido, dirig&#237;an sus ataques contra j&#243;venes de Taiw&#225;n, Singapur y Malasia, proporcion&#225;ndoles &quot;manuales de instrucciones&quot; detallados sobre t&#225;cticas enga&#241;osas, mientras se hac&#237;an pasar por personas de &#233;xito econ&#243;mico y seduc&#237;an a sus v&#237;ctimas con promesas de riqueza, indic&#243; el diario digital local Dimsum Daily.</p></p><p><p>La investigaci&#243;n revel&#243; que los estafadores lograron recaudar m&#225;s de 34 millones de d&#243;lares hongkoneses de sus v&#237;ctimas (4,3 millones de d&#243;lares estadounidenses, 4,2 millones de euros). </p></p><p><p>Asimismo, los agentes policiales incautaron unos 10 millones de d&#243;lares hongkoneses (1,28 millones de d&#243;lares estadounidenses, 1,24 millones de euros) en ganancias sospechosas.</p></p><p><p>El superintendente de Polic&#237;a Charles Fung destac&#243; que el grupo ocultaba sus operaciones en oficinas convencionales de la bah&#237;a de Kowloon, reclutando activamente a nuevos miembros y proporcion&#225;ndoles formaci&#243;n interna para captar v&#237;ctimas a trav&#233;s de plataformas en l&#237;nea.</p></p><p><p>Los perpetradores detr&#225;s de estos fraudes construyeron elaborados personajes virtuales, exhibiendo un lujoso estilo de vida repleto de coches de lujo y buenos vinos para convencer a sus v&#237;ctimas de su supuesta riqueza y &#233;xito, utilizando im&#225;genes robadas y herramientas deepfake para crear contenidos virtuales falsos pero cre&#237;bles.</p></p><p><p>La investigaci&#243;n indic&#243; que estos delincuentes estudiaban meticulosamente a sus objetivos, recopilando informaci&#243;n personal para establecer relaciones antes de proponerles oportunidades de inversi&#243;n en plataformas de criptomonedas extraterritoriales, que serv&#237;an como una tapadera para sus actividades delictivas.</p></p><p><p>La Oficina de Delitos Comerciales de la excolonia brit&#225;nica ha informado de un aumento del 8,3% en los casos de fraude en los tres primeros trimestres de 2024 respecto al mismo per&#237;odo del a&#241;o anterior. EFE</p></p>]]></content:encoded></item><item><title><![CDATA[TikTok bajo la lupa: estafas con “deepfake” ponen en riesgo la salud de los usuarios ]]></title><link>https://www.infobae.com/tecno/2025/03/10/tiktok-bajo-la-lupa-estafas-con-deepfake-ponen-en-riesgo-la-salud-de-los-usuarios/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/03/10/tiktok-bajo-la-lupa-estafas-con-deepfake-ponen-en-riesgo-la-salud-de-los-usuarios/</guid><dc:creator><![CDATA[Constanza Almirón]]></dc:creator><description><![CDATA[Videos manipulados con IA presentan falsas recomendaciones médicas, impulsando el consumo de suplementos sin respaldo científico]]></description><pubDate>Mon, 10 Mar 2025 09:00:00 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/RUL5IM7XJRAGBN4HKZF4I2IBGA.jpg?auth=f63133742170e3e2805f8fec0a1451240b46fa18a32d32a6fc7e8955700b0942&smart=true&width=1024&height=915" alt="La obsesión por el bienestar en internet crea un mercado ideal para fraudes de salud y belleza (Crédito: MediaMatter)" height="915" width="1024"/><p>Un informe reciente reveló una preocupante tendencia en <a href="https://www.infobae.com/tag/tiktok/" target="_blank" rel="" title="https://www.infobae.com/tag/tiktok/"><b>TikTok</b></a>: el crecimiento de <b>estafas</b> que utilizan tecnología <i><b>deepfake</b></i> para promocionar productos de salud y belleza <b>sin respaldo científico</b>. </p><p>Según <i>Fast Company</i>, la investigación de <i>Media Matters for America</i> expuso una red de <b>cuentas fraudes</b> que manipulan a los usuarios mediante falsos influencers<i> </i>generados por <b>inteligencia artificial</b>.</p><h2>Falsos influencers y productos sin respaldo científico</h2><p>Las cuentas identificadas dentro de esta red siguen un patrón específico: presentan historias personales emotivas para promocionar productos como suplementos o aceites capilares, utilizando <i>deepfakes</i> de supuestos influencers. </p><p>Un caso destacado es el de una cuenta eliminada recientemente que alcanzó <b>245.000 seguidores y 4,1 millones de “me gusta”</b>, promoviendo un aceite llamado <b>batana</b>, que supuestamente mejora el crecimiento del cabello. Sin embargo, no existe evidencia científica que respalde esa afirmación.</p><p>Uno de los personajes más utilizados en estas estafas era una mujer que se presentaba como <b>esposa de un cirujano plástico coreano, exmodelo de Victoria’s Secret y ginecóloga</b>. Su rostro, generado con IA, aparecía repetido en múltiples videos promocionando distintos productos, lo que evidenció el engaño.</p><img src="https://www.infobae.com/resizer/v2/3KUJKCHG6NGKRPDVYSXXM3KTZI.jpg?auth=22ba096f00f3cab5399eda9047049c1f47b9a3f13d8a988c3a8eb22bb329dcdc&smart=true&width=1024&height=583" alt="Deepfakes promueven suplementos y aceites capilares sin evidencia científica en redes sociales (Crédito: MediaMatter)" height="583" width="1024"/><h2>La manipulación a través de relatos personales</h2><p>Más allá de los <i>deepfakes,</i> los estafadores aprovechan tendencias populares en TikTok, como el formato <b>#storytime</b>, que acumula más de <b>36,9 millones de publicaciones</b>. Este estilo narrativo, basado en relatos personales, facilita la promoción engañosa de productos.</p><p>Uno de los ejemplos mencionados en el informe describe una historia sobre una pareja con <b>síndrome de ovario poliquístico (SOP)</b> que supuestamente logró concebir gracias a un suplemento comprado en Amazon. </p><p>Este tipo de contenido apunta a audiencias vulnerables, apelando a sus emociones y a la desesperación por encontrar soluciones a problemas de salud complejos.</p><p>El Departamento de Salud de Estados Unidos estima que el SOP afecta a <b>una de cada diez mujeres en edad fértil</b>, lo que convierte este tipo de relatos en herramientas poderosas para captar la atención de usuarias que buscan tratamientos alternativos. </p><p>Sin embargo, los productos promocionados carecen de respaldo científico y su venta responde a estrategias de marketing engañosas.</p><h2>La obsesión con el bienestar: un mercado ideal para el fraude</h2><p>El auge de los productos de salud y belleza en redes sociales ha creado un entorno para el incremento de este tipo de estafas. <b>Olivia Little</b>, investigadora de <i>Media Matters for America</i>, señala que los responsables de estas cuentas buscan aprovechar <b>“la obsesión de internet con el bienestar”</b>.</p><p>Muchas de estas cuentas incluyen términos como <b>“salud”</b>, <b>“belleza”</b> o <b>“bienestar”</b> en sus nombres de usuario y se dedican exclusivamente a la promoción de productos sin evidencia científica. </p><p>En tanto, la desinformación en este ámbito afecta especialmente a mujeres con condiciones de salud específicas, como el SOP, quienes son blanco frecuente de promesas de <b>“curas milagrosas”</b>.</p><img src="https://www.infobae.com/resizer/v2/KVQIXTXYFVCOXDMQXWIYWVIMN4.jpg?auth=ee2051ad99d76f8658719983c08575a4998fe8cf1e106d6cd18b7c385e421681&smart=true&width=1024&height=804" alt="Falsos influencers generados con IA promueven productos sin respaldo científico (Crédito: MediaMatter)" height="804" width="1024"/><h2>Deepfakes y desinformación: el desafío de la verificación</h2><p>El crecimiento de la tecnología <i>deepfake</i> representa un reto para los usuarios de redes sociales, quienes deben ser más cuidadosos con el contenido que consumen. La facilidad con la que se pueden crear personajes e historias falsas hace que sea cada vez más difícil detectar fraudes.</p><p>El informe destaca la <b>falta de regulación y supervisión </b>en<b> </b>TikTok, lo que permite que estas prácticas aumente y pongan en riesgo a millones de personas. Mientras las plataformas trabajan en la eliminación de contenido <i>fake</i>, los usuarios deben desarrollar un pensamiento más crítico y evitar confiar en recomendaciones virales.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/EQ4YMKFUS5CWPPYNBSZWUDZCOI.jpg?auth=0605c2718be3fd12c8a9494d5922cbdf9fa3e3bfb2f205e872847753127359b6&amp;smart=true&amp;width=1920&amp;height=1281" type="image/jpeg" height="1281" width="1920"><media:description type="plain"><![CDATA[El desafío de la audiencia frente a los deepfakes impulsados por inteligencia artificial (Crédito: Freepik)]]></media:description></media:content></item><item><title><![CDATA[Ariadna Montiel alerta por supuesto fraude a su nombre en Programas del Bienestar: “No te dejes engañar”]]></title><link>https://www.infobae.com/mexico/2025/02/06/ariadna-montiel-alerta-por-supuesto-fraude-a-su-nombre-en-programas-del-bienestar-no-te-dejes-enganar/</link><guid isPermaLink="true">https://www.infobae.com/mexico/2025/02/06/ariadna-montiel-alerta-por-supuesto-fraude-a-su-nombre-en-programas-del-bienestar-no-te-dejes-enganar/</guid><dc:creator><![CDATA[Olivia Vázquez Herrera]]></dc:creator><description><![CDATA[En redes sociales circula link donde la funcionaria federal ofrece varias opciones para invertir; te decimos cómo identificar si se trata un video falso]]></description><pubDate>Thu, 06 Feb 2025 18:49:48 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/CY7W4FF3MBCGDIKSKZ6BSJLPUA.jpg?auth=f468222b9411d08ad77829de8585a0afae20ba81ae3e966cdf169bd2576e1d9d&smart=true&width=750&height=415" alt="No es la primera vez que involucran a la secretaria en estos mensajes fraudulentos. (Secretaría del Bienestar)" height="415" width="750"/><p><b>Ariadna Montiel</b> Reyes, titular de la <b>Secretaría del Bienestar</b>, alertó en redes sociales sobre un <b>video </b>en el que presuntamente invita a realizar <b>inversiones</b>: “<b>Manipulan mi imagen y voz</b> para hacer anuncios sobre inversiones <b>fr4udulentas</b>. ¡No te dejes engañ4r!”, advirtió la funcionaria federal en sus cuentas oficiales.</p><p>La secretaria recordó que toda la información oficial sobre los <b>Programas del Bienestar </b>del gobierno federal se pueden consultar en las <b>redes sociales oficiales</b> así como en las páginas de la dependencia. En la publicación se puede apreciar una captura de pantalla del enlace que circula en internet, donde se ve una foto de Montiel Reyes con la leyenda “FALSO”.</p><p>Luego de la difusión de este mensaje por parte de la secretaria del Bienestar, las <b>delegaciones estatales</b> también lo replicaron en sus redes sociales para alertar a los ciudadanos: “AVISO IMPORTANTE. <b>ES TOTALMENTE FALSO</b>, el video que está circulando, en el que manipulan la imagen y voz de la Secretaria de Bienestar, Ariadna Montiel Reyes, para hacer anuncios sobre inversiones fraudulentas”, se puede leer en distintas cuentas.</p><img src="https://www.infobae.com/resizer/v2/TIP6BQCRI5GOPI6IYZG4OCJ3WY.jpg?auth=54cb7ebf77b6967c2c2e245ffbed97d1192f34b5c4ebf4d143a1ea60876bc544&smart=true&width=750&height=938" alt="Este es el mensaje que circula en redes. (Facebook Ariadna Montiel)" height="938" width="750"/><h2>No es la primera vez que circulan estos videos</h2><p>Desafortunadamente, este tipo de <b>videos manipulados</b> con la voz e imagen de funcionarios son más comunes de lo que parecen. De hecho, el 10 de julio del año pasado, Ariadna Montiel advirtió en sobre otro link con<b> información falsa </b>sobre las <b>pensiones </b>y otros Programas del Bienestar, en los cuales se ofrecían supuestas opciones para acceder a <b>créditos </b>e incluso realizar inversiones de distintos tipos, “recuerda que solo en nuestras redes sociales oficiales encontrarás la información oficial y vigente”, escribió en sus cuentas.</p><p>Incluso la presidenta<b> Claudia Sheinbaum </b>Pardo también ha sido víctima de estas estafas en internet. A finales de 2023, circuló en Facebook un video donde la entonces<b> precandidata de Morena</b> invitaba a los ciudadanos a<b> invertir cuatro mil 700 pesos</b> en <b>petróleo </b>para obtener ganancias por hasta 40 mil pesos. Sin embargo se trataba de un material extraído de una entrevista que había dado al Canal Catorce al cual se le insertó el audio manipulado con<b> inteligencia artificial </b>conocida como <i>deepfake</i>, reportaron portales de<i> fact-checking</i> como <i>Reuters</i>, <i>AP</i>, <i>El Sabues</i>o y <i>Verificado</i>.</p><p>Por esas mismas fechas, el entonces presidenta Andrés Manuel López Obrador también se vio afectado por un video en el que se alteraba su discurso y lo mostraba promocionando una <b>aplicación de inversiones bursátiles</b> en Petróleos Mexicanos (<b>Pemex</b>) supuestamente desarrollada por <b>Elon Musk</b>. En la grabación fraudulenta se le escuchaba a AMLO <b>presumir las ganancias</b> que había obtenido y que se trataba de un <b>esquema de inversión confiable</b>. El mandatario desmintió ese material y también lo hicieron portales encargados de detectar estafas y videos manipulados, como los mencionados anteriormente.</p><img src="https://www.infobae.com/resizer/v2/RO2ZKQMFUVC57LAUDAYHNVX3EE.jpg?auth=bc920382dc8da289d31f53faa2b106ba9a27d6212d5759caa7a0f1f1ea93708a&smart=true&width=750&height=434" alt="AMLO también fue involucrado en un video falso. (YT Andrés Manuel López Obrador)" height="434" width="750"/><h2>Consejos para no caer en videos fraudulentos</h2><p>Las plataformas que se dedican a verificar información recomiendan a los usuarios de redes buscar <b>inconsistencias </b>en la imagen y el audio, ya que los videos manipulados suelen tener <b>fallas en el doblaje</b> o <b>desfases </b>entre los movimientos y la voz.</p><p>Además, el movimiento de los personajes parecen poco naturales; otro consejo es comprobar la verosimilitud del contenido y verificar las fuentes, en el caso de México, vale recordar que la información oficial está en páginas con el <b>dominio .gob.mx</b>.</p><p>Además, los ciberdelincuentes suelen recurrir a la manipulación de imágenes de <b>personajes famosos o de autoridades</b> para ganar la confianza de las víctimas, no obstante, es poco creíble que se valgan de su imagen para invitar a descargar aplicaciones o realizar inversiones.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/CY7W4FF3MBCGDIKSKZ6BSJLPUA.jpg?auth=f468222b9411d08ad77829de8585a0afae20ba81ae3e966cdf169bd2576e1d9d&amp;smart=true&amp;width=750&amp;height=415" type="image/jpeg" height="415" width="750"><media:description type="plain"><![CDATA[No es la primera vez que involucran a la secretaria en estos mensajes fraudulentos. (Secretaría del Bienestar)]]></media:description></media:content></item><item><title><![CDATA[Argentina y España, entre los países que más deepfakes consumen en el mundo]]></title><link>https://www.infobae.com/tecno/2025/02/05/argentina-y-espana-entre-los-paises-que-mas-deepfakes-consumen-en-el-mundo/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/02/05/argentina-y-espana-entre-los-paises-que-mas-deepfakes-consumen-en-el-mundo/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[Este contenido creado con inteligencia artificial tiene el objetivo de engañar a los usuarios a través de imágenes y videos que parecen reales]]></description><pubDate>Wed, 05 Feb 2025 22:33:00 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/BLDFD4IHYZH75GINRRAWF3NEUU.jpg?auth=05491745c1f4878a4133722c3809e17e14f96da8d1bad8d8ca617d19f919b707&smart=true&width=1456&height=816" alt="Corea del Sur lidera el interés en deepfakes a nivel global con 13.399 búsquedas por millón de personas en diciembre de 2023. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Los deepfakes son una tecnología permite crear videos, fotos o audios manipulados que parecen auténticos, <a href="https://www.infobae.com/tecno/2024/12/05/el-mejor-consejo-del-fbi-para-cuidar-a-tu-familia-de-robos-con-suplantacion-de-identidad-o-deepfakes-hechos-con-ia/" target="_blank">pero han sido alterados mediante inteligencia artificial.</a> <b>Una herramienta potencialmente peligrosa, que en ciertos países genera mucho más interés, como el caso de Argentina en América Latina.</b></p><p>Recientemente, un estudio de<b> Kapwing</b>, una plataforma de edición de imágenes y videos, ha revelado cuáles son los países con mayor interés en los deepfakes, <a href="https://www.infobae.com/tecno/2025/02/05/google-quiere-revolucionar-la-agricultura-con-este-proyecto-de-ia-para-reducir-el-consumo-del-agua-y-aumentar-el-rendimiento/" target="_blank"><b>basándose en el volumen de búsquedas en Google relacionadas con esta tecnología.</b></a></p><h2>Quién lidera el consumo de deepfakes en el mundo</h2><p>De acuerdo con el estudio, Corea del Sur es el país más interesado en los deepfakes, con un total de 13.399 búsquedas por cada millón de personas durante diciembre de 202. Este dato refleja una preocupación creciente, ya que el país asiático ha sido epicentro de varios incidentes relacionados con el uso de esta tecnología, como los casos de suplantación de identidad y ciberacoso. </p><img src="https://www.infobae.com/resizer/v2/OPKNDUIA4RGHRNI3MHGY7BHXN4.png?auth=6c918ba881c64630f32bc0b2c15b7e233687c88548697b3898cffac16ea83c50&smart=true&width=2400&height=2503" alt="Corea del Sur lidera el interés mundial en deepfakes con 13.399 búsquedas por millón de personas, según estudio de Kapwing. (Kapwing)" height="2503" width="2400"/><p><b>Le siguen en la lista países como la República Checa, con 11.356 búsquedas por millón de personas, y Suecia, con 10.443</b>. Estos tres países son los únicos en superar las 10.000 búsquedas por millón de usuarios.</p><p>En contraste, países como<b> Estados Unidos, c</b>on 1.701 búsquedas por millón, se ubican en posiciones más bajas, aunque siguen siendo parte de este fenómeno global.</p><h2>Cómo es el consumo de deepfakes en Latinoamérica y España</h2><p>En América Latina y España,<b> </b>el consumo de deepfakes no ha alcanzado los niveles de algunos países como Corea del Sur, pero el interés está en aumento. No obstante, se pueden destacar algunos puntos importantes sobre el contexto latinoamericano y español.</p><p>En el España, el estudio encontró que durante el último mes de 2024 se realizaron 1.405 por cada millón de habitantes sobre temas relacionados con deepfakes.</p><img src="https://www.infobae.com/resizer/v2/Q4PJSGPFGJFM7BBPBW6HJV5HQU.jpg?auth=b43ef432d02bad176cf4c69364f3d09c9ae45eaeb446081311e640bde9fe0a07&smart=true&width=1456&height=816" alt="En América Latina, Argentina lidera el interés por los deepfakes con 713 búsquedas por millón de personas. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>En América Latina,<b> Argentina es el país donde hay un mayor interés sobre este tipo de contenido, con una notable diferente con el resto de naciones que aparecen en la investigación</b>. Este es el listado completo de búsquedas de este tipo en la región:</p><ol><li>Argentina: 713</li><li>Chile: 481</li><li>Brasil: 386</li><li>Perú: 337</li><li>México: 287</li><li>Colombia: 141</li><li>Bolivia: 93</li><li>Uruguay: 80</li><li>Venezuela: 44</li><li>Paraguay: 22</li></ol><h2>Estados Unidos, el epicentro de la legislación contra los deepfakes</h2><p>En Estados Unidos, los deepfakes se han convertido en una de las mayores preocupaciones en el ámbito de la seguridad digital, especialmente en las últimas elecciones presidenciales. A nivel estatal, Nevada se destaca como el lugar con mayor número de búsquedas sobre deepfakes, con 407 búsquedas por cada millón de personas. </p><p>Este estado ha visto un aumento de incidentes relacionados con el uso de esta tecnología, como los casos de acoso digital en jóvenes y la falsificación de imágenes de personajes famosos.</p><p>Sin embargo, <b>Miami</b>, <b>en el estado de Florida, sobresale como la ciudad con el mayor interés en los deepfakes, con 1.930 búsquedas por millón de personas.</b> La capital del estado ha sido escenario de varios incidentes de fraude, donde los estafadores utilizaron esta tecnología para crear identidades falsas y engañar a ciudadanos. </p><img src="https://www.infobae.com/resizer/v2/VLIOI7WYPNDE7LSMH2SLDQJ3V4.jpg?auth=0ad6e3910b0147e87420ac78a5991193fe49d749e4e8d02b005387eccc8f45d2&smart=true&width=1456&height=816" alt="Nevada destaca en Estados Unidos por su alto número de búsquedas de deepfakes, alcanzando 407 por millón. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Las autoridades locales han comenzado a prestar especial atención a estos fenómenos, alertando sobre el peligro de los deepfakes en la desinformación política y los fraudes financieros.</p><p>Por otro lado, California se presenta como un espacio de innovación en el uso de deepfakes, particularmente en la industria del entretenimiento. <b>En 2024, el gobernador Gavin Newsom firmó una legislación que busca proteger tanto a los actores como a los políticos del uso indebido de sus imágenes generadas por inteligencia artificial. </b></p><p>Este enfoque ha sido clave para regular el uso de la tecnología en el ámbito político y profesional, con el objetivo de frenar la información falsa.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/BLDFD4IHYZH75GINRRAWF3NEUU.jpg?auth=05491745c1f4878a4133722c3809e17e14f96da8d1bad8d8ca617d19f919b707&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[Corea del Sur lidera el interés en deepfakes a nivel global con 13.399 búsquedas por millón de personas en diciembre de 2023.  (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Deepfake, el nuevo rostro del bullying en las escuelas]]></title><link>https://www.infobae.com/educacion/2025/01/10/deepfake-el-nuevo-rostro-del-bullying-en-las-escuelas/</link><guid isPermaLink="true">https://www.infobae.com/educacion/2025/01/10/deepfake-el-nuevo-rostro-del-bullying-en-las-escuelas/</guid><dc:creator><![CDATA[Laura Lewin]]></dc:creator><description><![CDATA[“La lucha contra el acoso digital y los deepfakes en el ámbito escolar”, dice Laura Lewin en esta columna de opinión, “requiere un enfoque integral que combine educación, regulación y tecnología”]]></description><pubDate>Fri, 10 Jan 2025 03:10:00 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/UPPTP4R32VDHNGTHGCJXBIFSXQ.jpeg?auth=ce576f06537c76923c3be26b80bcea6604c4f93b6a50e3822ea2cc1d7d6400dc&smart=true&width=7537&height=4808" alt="Los deepfakes son videos, audios o imágenes creados mediante IA que permiten que pueden usarse para realizar fraudes o cometer actos de acoso y abuso (Adobe Stock)" height="4808" width="7537"/><p>El avance tecnológico trae consigo innumerables beneficios, pero también plantea nuevos desafíos que, en muchos casos, superan la capacidad de las instituciones para responder de manera adecuada y oportuna. <br>Uno de estos desafíos es el aumento del <b>acoso digital</b> y el <b>uso indebido de </b><i><b>deepfakes</b></i>, un problema que afecta a estudiantes y docentes por igual. <br><br>Los <i>deepfakes</i> son videos, audios o imágenes creados mediante inteligencia artificial que manipulan contenido real para alterar su apariencia, voz o movimiento, logrando resultados extremadamente realistas. Estas herramientas permiten, por ejemplo, poner palabras en la boca de una persona o cambiar completamente su rostro y cuerpo en un video, lo que las convierte en un <b>arma poderosa para difundir información falsa</b>, realizar fraudes o cometer actos de acoso y abuso, como el caso de imágenes íntimas creadas sin consentimiento. </p><p>La gran oferta actual de tecnologías basadas en inteligencia artificial ha dado rienda suelta a la creación de contenido manipulado que, en manos equivocadas, puede causar daños irreparables, especialmente en las escuelas. Los <i><b>deepfakes </b></i><b>de carácter sexual</b>, por ejemplo, no solo agravan el acoso digital, sino que también generan un clima de <b>inseguridad y vulnerabilidad</b>, especialmente entre los adolescentes. En este contexto, nos urge reflexionar sobre el papel de las instituciones educativas y el gobierno para proteger a los estudiantes y frenar este flagelo que está creciendo de manera alarmante.</p><img src="https://www.infobae.com/resizer/v2/BCRYUJ4C5RGTZJ3FG5HPSY276M.jpg?auth=d307279b0828c5f49a367b215a13563bcc5a8e0655015733986d07cfc4e6637e&smart=true&width=5609&height=3739" alt="Las consecuencias de ser víctima de un deepfake pueden ser devastadoras. Además, el impacto trasciende a la víctima directa, y genera un clima de desconfianza y temor entre los compañeros. (Foto: Freepik)" height="3739" width="5609"/><p>Tristemente, las plataformas de redes sociales, los servicios de mensajería y las herramientas de edición digital se han convertido en <b>armas para quienes buscan humillar, intimidar o manipular a sus compañeros</b>. La creación y distribución de <i>deepfakes </i>amplifica este problema, ya que permite generar contenido falso que puede destruir la reputación y la autoestima de una persona en cuestión de minutos. Y esto no es ciencia ficción. Ya está sucediendo, y mucho más de lo que imaginamos.</p><p>En las escuelas, los estudiantes se ven expuestos a estos riesgos de manera constante. <b>Las consecuencias psicológicas de ser víctima de un </b><i><b>deepfake </b></i><b>pueden ser devastadoras</b>: ansiedad, depresión, aislamiento social e incluso pensamientos suicidas. Además, el impacto trasciende a la víctima directa, generando un clima de desconfianza y temor entre los compañeros.</p><p>Frente a este panorama, <b>las escuelas tienen un papel fundamental que desempeñar</b>. No se trata solo de reaccionar ante los casos de acoso digital, sino de prevenirlos mediante estrategias educativas y tecnológicas. Además de capacitación para docentes, familias y estudiantes por igual, en temas de seguridad digital y ética, las instituciones educativas deben establecer <b>normas claras sobre el uso de tecnología</b> en el entorno escolar. Esto incluye sanciones para quienes usen herramientas digitales con intenciones maliciosas y protocolos para manejar casos de acoso.</p><p>Sin embargo, si bien las escuelas pueden implementar medidas preventivas, es fundamental que <b>los gobiernos actúen como garantes de los derechos de los estudiantes</b>.</p><img src="https://www.infobae.com/resizer/v2/IKP726TAERDA5MOZVHO7YYEE3E.JPG?auth=9d752cb4a5b7da0f4c0c905416556cd664c7c750c577637c8a502db10e6176af&smart=true&width=6000&height=4000" alt="Laura Lewin (Foto: Agustín Brashich/Ticmas)" height="4000" width="6000"/><p>Esto implica:</p><p>- Garantizar que las empresas tecnológicas sean responsables de monitorear y eliminar contenido perjudicial en sus plataformas. El gobierno debe establecer <b>mecanismos de supervisión y sanciones</b> para aquellas empresas que no cumplan con estos estándares.</p><p>- Contar con <b>leyes que penalicen la creación y distribución de </b><a href="" target="_blank" rel="" title=""></a><i><b>deepfakes</b></i> sin consentimiento. Estas leyes deben contemplar penas severas para los responsables y medidas de protección para las víctimas.</p><p>Esto no es una moda pasajera. La lucha contra el acoso digital y los <i>deepfakes </i>en el ámbito escolar requiere un enfoque integral que combine educación, regulación y tecnología. Las instituciones educativas deben ser el primer bastión de defensa, promoviendo valores de <b>respeto y empatía</b>, mientras que los gobiernos deben garantizar que las leyes estén actualizadas para enfrentar los desafíos de la era digital.</p><p>La educación, como pilar de la sociedad, tiene el poder de transformar realidades. Pero para lograrlo, necesita el respaldo de políticas públicas efectivas y el compromiso de toda la comunidad. Necesitamos garantizar <b>que los chicos crezcan en un mundo donde la tecnología sea sinónimo de oportunidades y no de amenazas</b>. </p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/UPPTP4R32VDHNGTHGCJXBIFSXQ.jpeg?auth=ce576f06537c76923c3be26b80bcea6604c4f93b6a50e3822ea2cc1d7d6400dc&amp;smart=true&amp;width=7537&amp;height=4808" type="image/jpeg" height="4808" width="7537"><media:description type="plain"><![CDATA[Los deepfakes son videos, audios o imágenes creados mediante IA que permiten que pueden usarse para realizar fraudes o cometer actos de acoso y abuso (Adobe Stock)]]></media:description><media:credit role="author" scheme="urn:ebu">Yuri Arcurs peopleimages.com</media:credit></media:content></item><item><title><![CDATA[“Deepfake pornográfico”: dos diputados presentaron un proyecto para penalizar la creación de contenido sexual mediante inteligencia artificial]]></title><link>https://www.infobae.com/judiciales/2024/12/07/deepfake-pornografico-dos-diputados-presentaron-un-proyecto-para-penalizar-la-creacion-de-contenido-sexual-mediante-inteligencia-artificial/</link><guid isPermaLink="true">https://www.infobae.com/judiciales/2024/12/07/deepfake-pornografico-dos-diputados-presentaron-un-proyecto-para-penalizar-la-creacion-de-contenido-sexual-mediante-inteligencia-artificial/</guid><dc:creator><![CDATA[Tomás Martino]]></dc:creator><description><![CDATA[La iniciativa apunta a sancionar una serie de conductas ligadas a la violencia digital o el ciberacoso. Los legisladores advirtieron sobre la “creciente amenaza” de la reproducción de material pornográfico manipulado por las tecnologías avanzadas]]></description><pubDate>Sat, 07 Dec 2024 07:17:20 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/FXXRNKYR4RE5XAMWOGWHDVEGHU.jpg?auth=58053080116c99295a6145ebe02dd94d2cea2e2a387111139b18cf767a22352f&smart=true&width=1456&height=816" alt="Dos diputados presentaron un proyecto para penalizar la creación de "contenido deepfake pornográfica" por medio de inteligencia artificial 
 (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Durante la última semana de sesiones ordinarias en el Congreso de la Nación, dos legisladores de la Cámara baja presentaron un proyecto de ley para reprimir con penas de prisión el <a href="https://www.infobae.com/tag/inteligencia-artificial/" target="_blank"><b>uso de inteligencia artificial</b> </a>para crear y replicar “<b>contenido deepfake pornográfico</b>” sin consentimiento de la persona afectada. La propuesta apunta, a su vez, a castigar la “<a href="https://www.infobae.com/tag/violencia-digital/" target="_blank"><b>violencia digital</b></a>” o <a href="https://www.infobae.com/tecno/2024/04/30/el-ciberacoso-una-problematica-que-afecta-a-la-mayoria-de-menores-como-prevenirla/" target="_blank"><b>ciberacoso </b></a>derivada de la difusión de ese <b>material falseado </b>en plataformas digitales o redes sociales de acceso masivo.</p><p>La iniciativa en cuestión fue escrita por la diputada por Chubut<b> Eugenia Alianiello </b>y el diputado por Jujuy <b>Guillermo Snopek</b>. Ambos pertenecen a la bancada de <a href="https://www.infobae.com/tag/union-por-la-patria/" target="_blank"><b>Unión por la Patria</b></a>.</p><p>La propuesta de ley se encuadraría dentro del <b>Capítulo II</b> del Título III del <b>Código Penal</b>, que regula los delitos contra la <a href="https://www.infobae.com/tag/delitos-contra-la-integridad-sexual/" target="_blank"><b>integridad sexual</b></a>. Y es que propone incorporar dos artículos (128 bis y 131 bis) a ese texto legal con la intención de “ofrecer una herramienta jurídica contundente y efectiva para proteger a las personas, sobre todo a <b>niños, niñas y adolescentes </b>de la <b>violencia digital</b>, especialmente en un contexto donde el anonimato en línea y la difusión masiva de contenido agravado por el uso de tecnologías avanzadas pueden <b>tener consecuencias devastadoras</b> en la vida de las víctimas”.</p><img src="https://www.infobae.com/resizer/v2/WA5ETUGQDFFA7K25IF2ZPYZUZY.jpg?auth=d4bfb464c63f0f28553fd337bbcc3813e7761f6d972cbedd1c008f858ce6da92&smart=true&width=1920&height=1080" alt="La diputada por Chubut Eugenia Alianiello y el diputado por Jujuy Guillermo Snopek, de Unión por la Patria, firmaron la iniciativa" height="1080" width="1920"/><p>“<b>Artículo 128 bis</b>. Será reprimido con prisión de tres (3) a ocho (8) años quien, por cualquier medio, <b>produjere</b>, <b>financiare</b>, <b>ofreciere</b>, <b>comerciare</b>, <b>publicare</b>, <b>facilitare</b>, <b>divulgare </b>o <b>distribuyere</b> imágenes o representaciones de menores de dieciocho (18) años participando en actividades sexuales explícitas, <b>reales o simuladas</b>, como así también toda representación de sus partes genitales, <b>reales o simuladas</b>, con fines predominantemente sexuales”, dispone el proyecto de los diputados <b>Alianiello y Snopek.</b></p><p>También añade:<b> </b>“Será reprimido con prisión de uno (1) a seis (6) años quien, sin el consentimiento de la persona afectada, produzca, distribuya, publique o posea <b>contenido audiovisual manipulado</b> <b>mediante inteligencia artificial o cualquier otra tecnología</b>, que represente a una persona mayor de edad en <b>situaciones de desnudez</b>, <b>actos sexuales</b> o <b>cualquier representación de carácter íntimo</b>, <b>reales o simuladas</b>. Será reprimido con prisión de un (1) mes a tres (3) años el que facilitare el acceso o <b>suministrare material sexual explicito o pornográfico</b>, real o simulado, a menores de catorce (14) años”.</p><p>Bajo esos parámetros, la misma cláusula establece<b> sanciones más severas </b>-con penas de seis a doce años de cárcel- cuando “La difusión se realice en <b>plataformas digitales o redes sociales de acceso masivo </b>y “Se cometa el delito por parte de una persona que tenga una <b>relación de confianza, parentesco, de dependencia</b>, de autoridad, o de poder, o aprovechándose de que la víctima por cualquier causa no haya podido consentir libremente la acción”.</p><p>Y estipula: “Todas las<b> escalas penales </b>previstas en este artículo se elevarán en un tercio en su mínimo y en su máximo cuando<b> la víctima fuere menor de trece (13) años</b>”.</p><img src="https://www.infobae.com/resizer/v2/TGJLCDMSRFDOTILZ7V7BFH3ZDE.jpg?auth=06ab02a737971b8e3e3be61ef90478cd11d97dfd4ff0a3440e561d5544624566&smart=true&width=5000&height=3334" alt="Para los legisladores, el aumento de casos de deepfake de índole sexual es "amenazante" (EFE)" height="3334" width="5000"/><p>Al fundamentar la reforma, los legisladores expresaron: “La evolución de la<b> inteligencia artificial</b> ha permitido el desarrollo de<a href="https://www.infobae.com/tag/tecnologias-avanzadas/" target="_blank"> <b>tecnologías capaces </b></a>de generar contenido audiovisual manipulado, conocido como <b>deepfake</b>, que puede ser utilizado para <b>crear imágenes y videos pornográficos sin el consentimiento</b> de las personas involucradas. Los casos y denuncias se han multiplicado exponencialmente en los últimos años, generando zozobra en muchos casos a la <b>comunidad escolar de distintas provincias del país</b>. Esta práctica constituye una clara <b>forma de violencia digital </b>que vulnera el derecho a la intimidad, la dignidad y la imagen personal, afectando de manera considerable a mujeres, hombres, niñas, niños y personas de la comunidad LGBTIQ+”.</p><p>Además, precisaron que el Código Penal no tiene contemplado de forma específica la creación, distribución o uso de “<a href="https://www.infobae.com/tag/deep-fake/" target="_blank"><b>deepfakes con contenido sexual</b></a>”, y eso, según consideraron, genera un “blanco legal que deja a las<b> víctimas desprotegidas </b>y sin herramientas legales sólidas y eficaces para enfrentar <b>esta problemática</b>”. Luego aseguraron:”este proyecto de ley propone una modificación del Código Penal para incluir la creación, difusión y posesión de <b>contenido deepfake pronográfico </b>como un delito específico, con agravantes en<b> situaciones de</b> <b>especial vulnerabilidad</b>”.</p><p>Por su parte, el <b>artículo 131 bis</b> fija penas de prisión de uno a cuatro años para quien “hostigue, acose, persiga o intimide a menores de dieciocho (18) años<b> utilizando</b> <b>cualquier medio digital o electrónico</b>, incluyendo la creación o difusión de contenido deepfake, con el objetivo de generar temor, angustia o daño emocional. La pena prevista en este artículo se elevará en un tercio en su mínimo y en su máximo cuando la <b>víctima fuere menor</b> de trece (13) años”.</p><p>Los diputados afirmaron que la modificación tiene como objetivo actualizar la normativa para abordar la “<b>creciente amenaza</b> de los deepfakes pornográficos”. Según señalaron, con esta iniciativa se busca que Argentina se incorpore al grupo de países que ya han tipificado <b>esta conducta como delito</b>. También explicaron que la medida responde al <b>compromiso internacional</b> firmado por el país en octubre del año pasado, destinado a proteger los <b>derechos digitales</b> y combatir la <b>violencia de género </b>en el ámbito virtual.</p><p>Tras la presentación del documento, se dispuso su giro a las comisiones de <b>Legislación Penal</b> (regente del trámite), <b>Comunicaciones e Informática </b>y <b>Familias, Niñez y Juventudes </b>para su estudio y tratamiento.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/FXXRNKYR4RE5XAMWOGWHDVEGHU.jpg?auth=58053080116c99295a6145ebe02dd94d2cea2e2a387111139b18cf767a22352f&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[(Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[El mejor consejo del FBI para cuidar a tu familia de robos con suplantación de identidad o deepfakes hechos con IA]]></title><link>https://www.infobae.com/tecno/2024/12/05/el-mejor-consejo-del-fbi-para-cuidar-a-tu-familia-de-robos-con-suplantacion-de-identidad-o-deepfakes-hechos-con-ia/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/12/05/el-mejor-consejo-del-fbi-para-cuidar-a-tu-familia-de-robos-con-suplantacion-de-identidad-o-deepfakes-hechos-con-ia/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[El deepfake es una tecnología usada para suplantar a otros creando imágenes que se ven igual a los reales]]></description><pubDate>Thu, 05 Dec 2024 15:45:25 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/RC5NSMV7VRHSVLASCJQOSYURFE.jpg?auth=62edfcfa8c91740e3b0c52c2ad461d415aed14cac621d98f91a736ced58b1498&smart=true&width=1456&height=816" alt="La inteligencia artificial permite que los ciberdelincuentes creen contenido que parezca real y sea más fácil engañar a los usuarios.(Imagen Ilustrativa Infobae)" height="816" width="1456"/><p><a href="https://www.infobae.com/tecno/2024/12/05/alertan-estafa-en-whatsapp-ciberdelincuentes-toman-el-control-de-una-cuenta-con-un-solo-clic/" target="_blank">Uno de los riesgos digitales más comunes es que alguien de la familia </a>sea <b>hackeado </b>y suplanten su identidad para pedir dinero o datos a los demás. Esto se hace mucho más complicado de detectar cuando se usa<b> inteligencia artificial </b>y a través de <b>deepfakes</b> crean imagenes, videos o audios que se ven y <a href="https://www.infobae.com/tecno/2024/12/03/desactiva-estas-funciones-del-televisor-para-evitar-ser-espiado-en-el-hogar/" target="_blank">suenan igual a esa persona.</a></p><p>Por ese motivo es fundamental tener soluciones de respaldo y el FBI ha lanzado una advertencia para todos los usuarios en el mundo: las familias pueden protegerse adoptando un sencillo truco, el uso de una <b>frase de seguridad</b>.</p><h2>Qué son los deepfakes y por qué representan un peligro</h2><p>Los <b>deepfakes</b> son creaciones digitales altamente realistas que utilizan IA generativa para imitar voces, rostros y gestos de personas reales. Esta tecnología, que inicialmente surgió como una innovación en la industria del entretenimiento y la creación de contenido, ahora es explotada por ciberdelincuentes para <b>fraudes financieros</b>, extorsión y <b>engaños emocionales</b>.</p><p>Un ejemplo citado por el FBI son las <b>llamadas de emergencia falsas</b>: los estafadores usan IA para clonar la voz de un ser querido y simular una situación de crisis, como un secuestro o un accidente, exigiendo dinero de manera inmediata. Este tipo de tácticas han capturado la atención pública y sembrado el pánico en familias desprevenidas.</p><img src="https://www.infobae.com/resizer/v2/LHF76Q4G4JFD7GI2O7HZXY6FLQ.jpg?auth=19dc75f997754b035fbb286100ccad1cc7277c317e7b2d770514f2a55de34dba&smart=true&width=1456&height=816" alt="La inteligencia artificial permite que los ciberdelincuentes creen contenido que parezca real y sea más fácil engañar a los usuarios.(Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Incluso existen casos más sofisticados donde los atacantes emplean deepfakes en <b>videollamadas en tiempo real</b>, suplantando a ejecutivos de empresas o figuras de autoridad para perpetrar estafas corporativas o engañar a usuarios individuales.</p><h3>Cómo crear una frase de seguridad para proteger a la familia</h3><p>Para combatir estos riesgos, el FBI ha recomendado una medida de seguridad simple, pero efectiva: las familias deberían acordar y memorizar una <b>frase o palabra secreta</b> que pueda ser usada como clave para autenticar la identidad de sus miembros en situaciones de emergencia.</p><p>Esta frase, conocida únicamente por los integrantes de la familia, actúa como una señal verificadora en llamadas o mensajes sospechosos. Según el FBI, su uso permite distinguir una comunicación genuina de un posible ataque de deepfake. </p><img src="https://www.infobae.com/resizer/v2/55WCZ3I2NFGWRHWD4QPHU74PP4.jpg?auth=94ec5c70953e9037f12f9c34d9a9e10be570e5b48d8697e276088dede8b38745&smart=true&width=1920&height=1080" alt="La inteligencia artificial permite que los ciberdelincuentes creen contenido que parezca real y sea más fácil engañar a los usuarios.(Imagen Ilustrativa Infobae)" height="1080" width="1920"/><p>“Escuche con atención el tono y la elección de palabras”, indica la agencia, señalando que las sutilezas en el lenguaje pueden revelar si una voz clonada no es completamente natural.</p><p>El FBI enfatiza que esta práctica debe ser adoptada por todas las familias, ya que representa una capa adicional de protección contra un tipo de fraude que puede ser emocionalmente devastador y financieramente costoso.</p><h3>Qué otros riesgos asociados con los deepfakes existen</h3><p>La advertencia no se limita únicamente a las familias. El FBI señala que los deepfakes están siendo utilizados en una variedad de <b>estafas digitales</b>, muchas de ellas dirigidas a usuarios de teléfonos inteligentes. Entre las técnicas más comunes se encuentran:</p><ol><li><b>Uso de fotos generadas por IA</b>: los estafadores crean imágenes falsas que comparten con las víctimas para convencerlas de que están interactuando con personas reales.</li><li><b>Promoción de actividades fraudulentas mediante imágenes de celebridades</b>: las figuras públicas son utilizadas sin su consentimiento para respaldar esquemas engañosos.</li><li><b>Audios de crisis simulada</b>: breves clips de audio que imitan la voz de un ser querido pidiendo ayuda financiera urgente.</li><li><b>Videollamadas falsas</b>: empleando deepfakes para suplantar a ejecutivos de empresas, agentes de la ley o contactos de confianza.</li><li><b>Videos de prueba</b>: material visual creado para “demostrar” que la persona con la que se comunica el usuario es real, cuando en realidad es una simulación digital.</li></ol><img src="https://www.infobae.com/resizer/v2/YL5CYJVEF5EM3O5LZ2YJB2UOTQ.jpg?auth=e5012b19ef32ca18687b366861270558108ebb81576b82273ac69805202fd00b&smart=true&width=1456&height=816" alt="La inteligencia artificial permite que los ciberdelincuentes creen contenido que parezca real y sea más fácil engañar a los usuarios.(Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Estos métodos son cada vez más accesibles gracias a las herramientas de IA disponibles públicamente, lo que hace que los fraudes sean más frecuentes y peligrosos.</p><h3>Otros consejos para protegerse de los deepfake</h3><p>Además de implementar una frase de seguridad, el FBI ha proporcionado otras recomendaciones esenciales para reducir el riesgo de caer en estafas de deepfake:</p><ul><li><b>Limite la información personal en redes sociales</b>: las fotos, videos y audios compartidos públicamente pueden ser utilizados para crear deepfakes. Es preferible mantener las cuentas privadas y restringir el acceso únicamente a personas conocidas.</li><li><b>Verifique la identidad de los contactos</b>: si recibe una llamada o mensaje sospechoso, cuelgue o no responda de inmediato. Busque el número o contacto oficial de la persona u organización y comuníquese directamente.</li><li><b>No comparta información sensible</b>: evite divulgar datos personales o financieros a través de llamadas o mensajes de texto, especialmente si la solicitud parece urgente o emocionalmente cargada.</li><li><b>Reporte incidentes de fraude</b>: si ha sido víctima de un esquema de deepfake o cualquier fraude financiero, presente una denuncia en el Centro de Quejas de Delitos en Internet (IC3) del FBI.</li></ul>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/RC5NSMV7VRHSVLASCJQOSYURFE.jpg?auth=62edfcfa8c91740e3b0c52c2ad461d415aed14cac621d98f91a736ced58b1498&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[La inteligencia artificial permite que los ciberdelincuentes creen contenido que parezca real y sea más fácil engañar a los usuarios.(Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Karol G en problemas financieros: la estafa que se hace viral en WhatsApp y Facebook]]></title><link>https://www.infobae.com/tecno/2024/10/27/karol-g-en-problemas-financieros-la-estafa-que-se-hace-viral-en-whatsapp-y-facebook/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/10/27/karol-g-en-problemas-financieros-la-estafa-que-se-hace-viral-en-whatsapp-y-facebook/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[Con inteligencia artificial es posible copiar la voz de la cantante colombiana, una modalidad que está en crecimiento]]></description><pubDate>Sun, 27 Oct 2024 15:33:48 +0000</pubDate><content:encoded><![CDATA[<p>Las estafas que usan inteligencia artificial <a href="https://www.infobae.com/tecno/2024/10/25/desactiva-esta-funcion-en-tu-telefono-movil-y-olvidate-de-las-molestas-llamadas-spam/" target="_blank">son cada vez más complejas e imperceptibles</a>. Una de las modalidades que más impacto genera es el deepfake, que consiste en copiar y suplantar la voz o imagen de alguien. Un formato ideal para replicar los rostros y voces de personajes famosos, para crear engaños, para robar información o dinero.</p><p>Un concepto que ha tomado el influencer argentino Mariano Bondar, <b>para mostrar, a través del humor, cómo es posible que esta tecnología cree engaños que luzcan reales y difíciles de distinguir, </b>especialmente por aquellos usuarios que no prestan atención a los detalles y confían rápidamente en lo que ven y oyen.</p><h2>Karol G y un ejemplo más de cómo funcionan los deepfake</h2><p>Los usuarios deben asumir que dentro del contenido que ven en redes sociales, hay una posibilidad de que lo que vean no sea real y haya una inteligencia artificial detrás generando un video, imagen o audio que lo haga parecer.</p><p>Con este video de la cantante colombiana, Bondar toma una situación bastante imposible de que suceda: <b>Karol G está en problemas económicos y para solucionarlo empezará a vender postres en internet, por lo que le puede a los usuarios los datos de su tarjeta de crédito para que la apoyen.</b></p><p>Si bien este puede ser un escenario que muchos detecten como falso, es solo un ejemplo de cómo a través de IA la voz de la cantante colombiana es posible copiarla y generar un contenido que parezca real, si los ciberdelincuentes se lo proponen.</p><p><b>El influencer tiene más videos de este estilo, como en el que Gokú, el protagonista de Dragon Ball, pide dinero para ayudar a Vegeta, que se encuentra en problemas económicos</b>. En este caso, la voz copiada es la de Mario Castañeda, quien hace el doblaje para Latinoamérica.</p><h2>El crecimiento de los deepfake y las estafas</h2><p>Kaspersky, empresa de ciberseguridad, reveló un alarmante incremento del 120% en los intentos de estafa a través de mensajes falsos en Colombia durante 2024. En el período de julio de 2023 a julio de 2024, se registraron cerca de 397 millones de bloqueos de phishing en América Latina, <b>con un total de 697 millones de intentos bloqueados en toda la región, lo que representa un aumento de 2.4 veces respecto al informe anterior. Esto equivale a 1,326 intentos de phishing por minuto.</b></p><img src="https://www.infobae.com/resizer/v2/FZOHZG2FT5B5XOPIRVO64ZLDCE.jpg?auth=ae0774da577ad70c2bc247803c26b2dda2699ce1314389b9db3beb15b8632fa3&smart=true&width=1792&height=1024" alt="Usan inteligencia artificial, copian la voz de Karol G para pedir datos personales a los usuarios. (Imagen ilustrativa Infobae)" height="1024" width="1792"/><p>Entre los países más atacados destacan Brasil, México, Perú, Colombia y Ecuador. Asimismo, los mayores aumentos de actividad de phishing se observaron en Bolivia, Perú, Argentina, Guatemala y Brasil, con incrementos que alcanzaron hasta el 400%.</p><p><b>El informe resalta una evolución en las tácticas de los delincuentes, quienes ahora emplean inteligencia artificial para crear contenidos manipulados, como deepvoice y deepfake.</b> Estos materiales, que incluyen voces e imágenes de celebridades, se difunden en redes sociales para atraer a las víctimas hacia falsos sitios de inversión. </p><p>Además, el dominio “.ai” se ha convertido en una herramienta común para crear páginas fraudulentas, capitalizando el creciente interés en la inteligencia artificial que tienen empresas reales para establecer sus negocios en la red.<b> Por lo que los ciberdelincuentes quieren aprovechar esta tendencia para tomar un lugar y engañar a los usuarios.</b></p><img src="https://www.infobae.com/resizer/v2/NQUHSEBMWRCFJCAUL74KTJ6OPA.jpg?auth=72b82c107d182a203a9ee54b821161083c0cd60d43ccf66ddf23b61b2db17369&smart=true&width=1456&height=816" alt="Usan inteligencia artificial, copian la voz de Karol G para pedir datos personales a los usuarios. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Aunque casos como el video de Karol G o el de Gokú son contenidos de humor para redes sociales, son muestras de lo fácil que es crear este tipo de engaños, que sí son más elaborados y enfocados, pueden generar un impacto negativo en los usuarios que no verifiquen la información,<b> la fuente desde donde les llega o la información que están solicitando, que en su mayoría son datos personales o financieros de tarjetas de crédito.</b></p><p><br/></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/VUCWMUMKLBALZBU6ZPI5YHJ6NE.jpg?auth=2e4d33714334bde4e3af24e10633c7808bdd4600d149fb2daaa860bab417721d&amp;smart=true&amp;width=960&amp;height=540" type="image/jpeg" height="540" width="960"><media:description type="plain"><![CDATA[Usan inteligencia artificial, copian la voz de Karol G para pedir datos personales a los usuarios. (Kevin Winter/Getty Images)]]></media:description><media:credit role="author" scheme="urn:ebu">Kevin Winter/Getty Images</media:credit></media:content></item><item><title><![CDATA[Meta acabará con las estafas en Instagram y Facebook con esta tecnología única de reconocimiento facial ]]></title><link>https://www.infobae.com/tecno/2024/10/21/meta-acabara-con-las-estafas-en-instagram-y-facebook-con-esta-tecnologia-unica-de-reconocimiento-facial/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/10/21/meta-acabara-con-las-estafas-en-instagram-y-facebook-con-esta-tecnologia-unica-de-reconocimiento-facial/</guid><dc:creator><![CDATA[Dylan Escobar Ruiz]]></dc:creator><description><![CDATA[Infobae habló en exclusiva con Monika Bickert, vicepresidenta de políticas de contenido de Meta, sobre unas pruebas que están realizando a nivel mundial para combatir esta amenaza]]></description><pubDate>Mon, 21 Oct 2024 23:00:01 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/CA7RXE35Q7PCQ7ZRHIJKOYISZI.jpg?auth=c0e114e569f79b8f41337d4c2f7a4a1eee82ac208b87b65518c5a8c1879d8f24&smart=true&width=4000&height=2656" alt="La compañía reconoce que este problema está en aumento en el mundo digital. (Foto: REUTERS/Dado Ruvic/Illustration//File Photo)" height="2656" width="4000"/><p><a href="https://www.infobae.com/tecno/2024/10/20/desactiva-en-whatsapp-esta-opcion-y-evita-que-un-amigo-o-pareja-te-siga-los-pasos/" target="_blank">Meta, la empresa detrás de redes sociales como Facebook e Instagram</a>, anunció en Infobae que, a raíz del incremento de estafas cibernéticas desde inicios de pandemia, está realizando pruebas para implementar una tecnología de reconocimiento facial que identificará publicaciones fraudulentas de famosos.</p><p>Monika Bickert, vicepresidenta de políticas de contenido de Meta, habló en exclusiva con Infobae sobre esta problemática <a href="https://www.infobae.com/tecno/2024/10/20/desinstala-ya-mismo-estas-aplicaciones-estan-robando-tus-contrasenas-desde-el-celular/" target="_blank">que afecta a millones de usuarios y que representa una amenaza a la privacidad </a>y a la honra de aquellas celebridades que no quieren que sus seguidores sean estafados a su nombre.</p><p><b>“Usamos clasificadores de aprendizaje automático para revisar lo que se comparte, en búsqueda de infracciones a nuestras políticas de publicidad, incluyendo estafas”</b>, afirmó Bickert a Infobae.</p><h2>Cómo Meta planea identificar deepfakes de famosos en Instagram y Facebook</h2><img src="https://www.infobae.com/resizer/v2/CRW3CSSWSFHPBKQG3AASSXYVFQ.jpg?auth=d91d3ab02400e524263ddb48c95e0753744c0a51ef838c66f3d9209d46913128&smart=true&width=1920&height=1080" alt="Este tipo de ciberataques donde se manipula una foto representa un reto para varias organizaciones. (Imagen Ilustrativa Infobae)" height="1080" width="1920"/><p>Para identificar los deepfakes o videos falsos de famosos, Meta utilizará su sistema de revisión de anuncios, <b>que analiza millones de publicaciones diarias en las plataformas de la empresa. El proceso se hace de manera automática y analiza factores como el texto, la imagen o el video teniendo en cuenta el aprendizaje automático de la IA con </b>cantantes, deportistas u otros famosos.</p><p>“Este esquema es comúnmente llamado “celeb-bait” e infringe nuestras políticas y es perjudicial para las personas que usan nuestros productos”, agregó Bickert.</p><p>El celeb-bait inicia cuando los estafadores de diferentes partes del mundo manipulan imágenes y videos de celebridades <b>para incentivar a sus “seguidores” a ir a sitios web fraudulentos</b>, donde son engañados para compartir información confidencial, como contraseñas o datos bancarios que resultan en robos de grandes sumas de dinero.</p><img src="https://www.infobae.com/resizer/v2/YHYXOBVM5BG5DPGIXVBMOF5AS4.jpg?auth=12ff876c3d20ed81d2e4f0ca5536d1e0fe3447c9ecae47e54e042b1e0c5280cd&smart=true&width=1920&height=1280" alt="Los ciberdelincuentes adaptan imágenes reales o hechas perfectamente con inteligencia artificial, crean un perfil falso y logran engañar a los fans. (Foto: Freepik)" height="1280" width="1920"/><h2>Qué hace la tecnología de Meta cuando identifica un deepfake</h2><p><b>Si los sistemas de Meta sospechan que una publicación puede ser una estafa</b>, internamente comparan el material sospechoso con la foto del perfil verficado del famoso, usando una tecnología única con ayuda de reconocimiento facial en Instagram y Facebook.</p><p>Según Bickert “si confirmamos que el anuncio es una estafa lo bloquearemos y eliminaremos inmediatamente cualquier dato facial generado por esta comparación, independientemente de si nuestro sistema encuentra o no una coincidencia. Nunca utilizaremos para ningún otro propósito este material”.</p><p>Por el momento, este mecanismo está siendo probado en un grupo pequeño de celebridades a nivel mundial excepto<b> en la Unión Europea, por temas de regulación. </b>También, se espera que en las próximas semanas se notifique a más <a href="https://www.infobae.com/tecno/2024/10/19/whatsapp-elimina-ya-mismo-toda-la-informacion-que-tiene-meta-ia-de-tus-busquedas/" target="_blank">famosos que han sido víctimas de deepfakes para que den su autorización y sean parte de este proyecto. </a></p><img src="https://www.infobae.com/resizer/v2/YZH734E4NKCP4GDD4WILRXFN3U.jpg?auth=ab665d7e3ce7bfd29ece5d67edc6181833ca02cc687e964c51483ceb0228de2f&smart=true&width=800&height=555" alt="Si se detecta una irregularidad en el contenido se procederá a bloquearlo. (Foto: REUTERS/Francis Mascarenhas/)" height="555" width="800"/><h2>Cómo estafan con información de famosos en redes sociales</h2><p><b>Otra problemática que se presenta en el mundo digital es la suplantación de cuentas de famosos por estafadores</b>, para convencer a sus seguidores de realizar alguna transferencia de dinero.</p><p>“Los estafadores pueden decir que una celebridad respaldó una inversión específica o que está pidiendo información personal a cambio de un regalo”, declaró la Vicepresidenta de Políticas de Contenido de Meta.</p><img src="https://www.infobae.com/resizer/v2/VNU5GCEGCVGRVDRDXGJHKZY7TU.jpg?auth=afa1d2629313bb72b7a28de2e4ac7a1ef00bdf2855c9da4e0cfcf5efecc3844c&smart=true&width=1920&height=1080" alt="Los delincuentes imitan cuentas reales para robar información sensible. (Foto: Freepik)" height="1080" width="1920"/><p>Para evitar esto, la compañía está explorando nuevas formas de identifcar más rápido este tipo de cuentas, pero no se ha pasado a la fase de pruebas.</p><h2>Cómo recuperar una cuenta de Instagram o Facebook</h2><p><b>Con el propósito de solucionar problemas al intentar recuperar una cuenta de Instagram y Facebook</b>, por diferentes razones como el olvido de contraseñas, pérdida del dispositivo o un intento de ciberataque, se está probando el reconocimiento facial por medio de una selfie para reestablecer la cuenta.</p><p>“Si creemos que una cuenta ha sido comprometida, pedimos al propietario que verifique su identidad compartiendo un documento de identificación oficial que incluya su nombre” explicó Bickert, al preguntarle qué pasaría si alguien intenta suplantar la selfie del propietario.</p><p>Además, Meta confirmó que la selfie de recuperación nunca se verá en el perfil del usuario, sino que se borrará esta y cualquier otro dato generado en este proceso.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/5C4MP5NYYFTCGABKOOMEZSS6B4.jpg?auth=2d283c7638171d48db5a39d328f2a419b9a657aa8b7f5376e6a5d7fb18ad61dc&amp;smart=true&amp;width=800&amp;height=531" type="image/jpeg" height="531" width="800"><media:description type="plain"><![CDATA[La compañía reconoce que este problema está en aumento en el mundo digital. (Foto: REUTERS/Dado Ruvic/Illustration//File Photo)]]></media:description><media:credit role="author" scheme="urn:ebu">Dado Ruvic</media:credit></media:content></item><item><title><![CDATA[Creyeron encontrar el amor, pero era una IA: Así funcionan las estafas románticas con deepfakes]]></title><link>https://www.infobae.com/tecno/2024/10/16/creyeron-encontrar-el-amor-pero-era-una-ia-asi-funcionan-las-estafas-romanticas-con-deepfakes/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/10/16/creyeron-encontrar-el-amor-pero-era-una-ia-asi-funcionan-las-estafas-romanticas-con-deepfakes/</guid><dc:creator><![CDATA[Isabela Durán San Juan]]></dc:creator><description><![CDATA[Un grupo de ciberdelincuentes construyeron relaciones falsas con sus víctimas y lograron robar más de 46 millones de dólares]]></description><pubDate>Wed, 16 Oct 2024 20:53:52 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/OVB2MO2RBFFMBJMJSRJMGIVCAA.jpg?auth=8ec9447a2bd899da342d79bb52d585a6a43538cb837d2e952f93921580764454&smart=true&width=1456&height=816" alt="Los ciberdelincuentes construían una supuesta relación sus víctimas. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>En Hong Kong,<b> una red de estafadores utilizó </b><a href="https://www.infobae.com/tecno/2024/10/16/google-y-mclaren-sorprenden-con-un-nuevo-auto-de-carreras-que-dominara-la-formula-1/" target="_blank"><b>deepfakes</b></a><b>, una tecnología de </b><a href="https://www.infobae.com/tecno/2024/10/16/modo-dragon-ball-en-whatsapp-la-manera-mas-sencilla-de-activarlo/" target="_blank"><b>inteligencia artificial </b></a><b>que permite crear videos falsos extremadamente realistas al modificar rostros y voces</b>, para engañar a sus víctimas en estafas románticas.</p><p>Estos delincuentes creaban relaciones ficticias con las víctimas mediante videollamadas manipuladas, generando confianza antes de pedirles grandes sumas de dinero. <b>Las pérdidas totales ascendieron a más de 46 millones de dólares en Asia. La policía de Hong Kong arrestó a 27 personas involucradas.</b></p><h2>Cómo los ciberdelincuentes lograron su estafa</h2><p>Las estafas seguían un patrón detallado. Los delincuentes iniciaban el contacto con sus víctimas a través de aplicaciones de citas o redes sociales, utilizando perfiles falsos con fotos y videos manipulados digitalmente.</p><img src="https://www.infobae.com/resizer/v2/7XNJIK3HKRFKBPFYFA2GXLDEHA.jpg?auth=5a6327ef4965389849f557492918636b63ab8f0124d2bcbf98bf9bbc11054096&smart=true&width=1456&height=816" alt="Las personas creían que sus parejas eran reales debido a las llamadas que tenían. (Imagen ilustrativa Infobae)" height="816" width="1456"/><p><b>Las víctimas, al interactuar en videollamadas con estos videos deepfake, quedaban convencidas de que estaban viendo y hablando con una persona real.</b> Los estafadores, con habilidad, mantenían la relación durante semanas o meses, construyendo confianza y estableciendo un fuerte vínculo emocional.</p><p>El siguiente paso en la estafa era solicitar dinero. Los delincuentes inventaban historias sobre problemas personales o emergencias familiares, logrando que las víctimas les transfirieran importantes cantidades de dinero.</p><p>Argumentaban que necesitaban fondos para emergencias médicas, inversiones o situaciones urgentes que debían resolverse rápidamente. En algunos casos, las víctimas incluso enviaron múltiples pagos, creyendo que estaban ayudando a su “pareja”.</p><p>La tecnología deepfake jugaba un papel crucial en este esquema, ya que las víctimas confiaban en la autenticidad de las videollamadas. Al no poder diferenciar los videos manipulados de la realidad, cayeron fácilmente en la trampa, lo que permitió a los estafadores ejecutar el fraude de manera efectiva y sin levantar sospechas inmediatas.</p><img src="https://www.infobae.com/resizer/v2/W4CTDNOVOFCWBAQ4OX2NNNHI5E.jpg?auth=c8e012b1db3ff9802d90e177faf1679e9f9821b88822ca3309811843c5bff811&smart=true&width=1456&height=816" alt="La policía de Hong Kong descubrió una gran red de estafadores detrás de las denuncias. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p><b>Tras recibir varias denuncias, las autoridades de Hong Kong comenzaron a investigar las actividades de esta red criminal.</b> Las investigaciones revelaron un complejo esquema que involucraba a decenas de personas en diferentes roles, desde la creación de los videos deepfake hasta la gestión de las transferencias de dinero.</p><p>Después de meses de seguimiento y recopilación de pruebas, la policía logró desmantelar la operación y arrestar a 27 personas vinculadas con la estafa.</p><p>Las consecuencias para las víctimas no fueron solo financieras, sino también emocionales. Muchas de ellas, creyendo que estaban en una relación romántica genuina, se vieron profundamente afectadas al descubrir el fraude.</p><p>Este tipo de estafas no solo juega con el dinero de las víctimas, sino también con sus emociones, lo que las deja devastadas tanto en lo personal como en lo económico.</p><img src="https://www.infobae.com/resizer/v2/GKLU2AAD2BCXBIAAMGKJLVBUW4.jpg?auth=2b0454ce6e9ef81851eab5ef9f0e686dbb770b8e373ca4368573f388cd8bdc1a&smart=true&width=1456&height=816" alt="Es importante que los usuarios aprendan a identificar deepfakes para que no caigan en estafas.  (Imagen Ilustrativa Infobae)" height="816" width="1456"/><h2>Cómo protegerse de los deepfakes</h2><p>Para protegerse de los deepfakes, las personas deben adoptar medidas preventivas y mantenerse cautelosas. Primero, <b>es clave verificar la fuente del contenido</b>. Si un video o imagen proviene de una fuente desconocida o sospechosa, puede ser motivo de alerta.</p><p>Además, el uso de herramientas de detección de deepfakes ayuda a identificar señales de manipulación digital. Es importante también prestar atención a inconsistencias visuales, como sombras incorrectas o movimientos faciales inusuales, y mantenerse siempre escéptico ante contenido que parece demasiado perfecto.</p><p>Las inconsistencias en los movimientos o expresiones faciales, como un parpadeo irregular, pueden ser indicativos de un deepfake. Algunas plataformas también ofrecen herramientas especializadas que permiten detectar este tipo de manipulación mediante análisis de video.</p><p>Es crucial estar informado sobre las nuevas tecnologías de detección y tener hábitos seguros al compartir o confiar en contenido digital.</p><img src="https://www.infobae.com/resizer/v2/O4RBCH3SRRHUDM3XTT4FEP444M.jpg?auth=356f8cd5246818764c732b7e6e958f4985b7450d39f667da31cce3205ec41543&smart=true&width=1456&height=816" alt="Las estafas o fraudes románticos suelen extender por un cierto período de tiempo para que la víctima caiga.  (Imagen ilustrativa Infobae)" height="816" width="1456"/><p>Finalmente, reportar cualquier video sospechoso a las plataformas en las que se encuentren también puede ayudar a prevenir la propagación de este tipo de fraudes.</p><h2>Cómo son los fraudes románticos</h2><p>Los fraudes románticos son estafas en las que los delincuentes crean perfiles falsos en redes sociales o aplicaciones de citas, fingiendo ser personas interesadas en una relación sentimental. <b>A lo largo del tiempo, construyen una conexión emocional con la víctima para ganarse su confianza.</b></p><p>Una vez establecida la relación, los estafadores empiezan a solicitar dinero, alegando emergencias como problemas de salud, familiares o de negocios. Las víctimas, creyendo que están ayudando a alguien con quien tienen una relación genuina, suelen enviar grandes sumas de dinero para terminar perdiéndolo.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/OVB2MO2RBFFMBJMJSRJMGIVCAA.jpg?auth=8ec9447a2bd899da342d79bb52d585a6a43538cb837d2e952f93921580764454&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[Los ciberdelincuentes construían una supuesta relación sus víctimas. (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[La IA es motor de desinformación en elecciones de EEUU: llamadas falsas, deepfakes y memes]]></title><link>https://www.infobae.com/america/agencias/2024/10/07/la-ia-es-motor-de-desinformacion-en-elecciones-de-eeuu-llamadas-falsas-deepfakes-y-memes/</link><guid isPermaLink="true">https://www.infobae.com/america/agencias/2024/10/07/la-ia-es-motor-de-desinformacion-en-elecciones-de-eeuu-llamadas-falsas-deepfakes-y-memes/</guid><dc:creator><![CDATA[Newsroom Infobae]]></dc:creator><description><![CDATA[La manipulación electoral en EE.UU. incluye el uso de inteligencia artificial para desinformar, con "deepfakes", llamadas falsas y memes, afectando la percepción de la realidad entre los votantes]]></description><pubDate>Mon, 07 Oct 2024 17:32:13 +0000</pubDate><content:encoded><![CDATA[<p><p>Sarah Y&aacute;&ntilde;ez-Richards </p></p><p><p>Nueva York, 7 oct (EFE).- La inteligencia artificial (IA) est&aacute; siendo una t&eacute;cnica de desinformaci&oacute;n en las elecciones presidenciales de EE.UU. que va desde surrealistas im&aacute;genes de los dos candidatos a la Casa Blanca paseando por una playa agarrados de la mano a llamadas falsas que usaron la voz del presidente, Joe Biden, para instar a los dem&oacute;cratas a no votar.</p></p><p><p>Estas son las primeras elecciones presidenciales en Estados Unidos desde el &#39;boom&#39; de la IA generativa, la herramienta que permite crear fotos, v&iacute;deos y audios realistas de cosas que nunca han pasado, una t&eacute;cnica conocida como &#39;deepfake&#39;.</p></p><p><p>La proliferaci&oacute;n de esta informaci&oacute;n manipulada, sobre todo en las redes sociales, est&aacute; erosionando la realidad y hace que la gente crea cada vez menos lo que ve, seg&uacute;n indica a EFE Daniel Rogers, profesor adjunto de la Universidad de Nueva York. </p></p><p><p>Un estudio de Pew Research Center se&ntilde;ala que el 57 % de los estadounidenses -con un porcentaje casi id&eacute;ntico entre republicanos y dem&oacute;cratas- dicen estar &quot;extremadamente o muy preocupados de que personas u organizaciones que buscan influir en las elecciones utilicen la IA para crear y distribuir informaci&oacute;n falsa o enga&ntilde;osa sobre los candidatos y las campa&ntilde;as&quot;.</p></p><p><p>&quot;Estas herramientas en general difuminan las l&iacute;neas entre la realidad y la invenci&oacute;n. Y creo que esa tendencia continuar&aacute; hasta que haya algunas barreras de seguridad, o barreras externas que se coloquen para intentar preservar cierta realidad sensorial&quot;, anota Rogers. </p></p><p><p>El experto, adem&aacute;s, apunta que otro efecto secundario de esta tecnolog&iacute;a es que la gente puede se&ntilde;alar que una informaci&oacute;n verdadera ha sido creada por IA, algo que se conoce como &quot;el dividendo del mentiroso&quot;; t&eacute;cnica que Trump ha usado para desacreditar una foto con E. Jean Carroll, periodista de la que se le acus&oacute; de haberla agredido sexualmente.</p></p><p><p>En enero, una serie de llamadas autom&aacute;ticas falsas en Nuevo Hampshire utilizaron una imitaci&oacute;n de la voz de Biden generada por IA para instar a los dem&oacute;cratas a no votar en las primarias del estado. </p></p><p><p>Mientras, en julio de 2023, se utiliz&oacute; IA para imitar la voz de Trump en un anuncio de otro candidato para representar al Partido Republicano en las primarias que lo atacaba.</p></p><p><p>En aquel entonces, la campa&ntilde;a de Trump critic&oacute; el anuncio como un &quot;intento desesperado&quot; de &quot;enga&ntilde;ar al p&uacute;blico estadounidense&quot;.</p></p><p><p>No obstante, el propio Trump ha compartido en sus redes contenido generado por IA en esta campa&ntilde;a electoral: el caso m&aacute;s sonado fue cuando public&oacute; en su red social, Truth Social, unas im&aacute;genes falsas de Taylor Swift respald&aacute;ndolo.</p></p><p><p>Estas fotos estaban etiquetadas como s&aacute;tira por su creador original y, d&iacute;as despu&eacute;s, Trump reconoci&oacute; que las im&aacute;genes no eran reales.</p></p><p><p>Tambi&eacute;n circulan por las redes muchos &#39;memes&#39; creados con IA que no tienen el objetivo de parecer reales, sino de mandar un mensaje, como por ejemplo Trump montado en un le&oacute;n o robando en un supermercado pistola en mano. </p></p><p><p>Seg&uacute;n la Inteligencia Nacional de Estados Unidos, Rusia, Ir&aacute;n y China est&aacute;n utilizando esta tecnolog&iacute;a para influir en la poblaci&oacute;n estadounidense antes de las elecciones de noviembre. </p></p><p><p>Este verano, el Departamento de Justicia tom&oacute; medidas contra una empresa rusa que usaba IA para hacerse pasar por usuarios estadounidenses en las redes sociales, y OpenAI desarm&oacute; un grupo iran&iacute; que usaba ChatGPT para generar comentarios falsos en las redes sociales.</p></p><p><p>En estas elecciones tambi&eacute;n se ha visto la otra cara de la moneda: el uso de la IA como herramienta para hacer campa&ntilde;a por un candidato, como por ejemplo hacer llamadas telef&oacute;nicas a votantes. </p></p><p><p>De acuerdo con una investigaci&oacute;n del New York Times, las campa&ntilde;as en su mayor&iacute;a no est&aacute;n dando el salto a usar IA y, cuando lo han hecho, la tecnolog&iacute;a ha fracasado.</p></p><p><p>A Rogers no le extra&ntilde;a este dato, ya que dice que algo clave para una campa&ntilde;a es la &quot;autenticidad&quot; y que una llamada realizada por un robot no transmite eso. EFE</p></p><p><p>(foto)</p></p><p><p></p></p>]]></content:encoded></item><item><title><![CDATA[Donald Trump, Elon Musk y Taylor Swift: la lista de famosos que más deepfakes han sufrido en 2024]]></title><link>https://www.infobae.com/tecno/2024/10/01/donald-trump-elon-musk-y-taylor-swift-la-lista-de-famosos-que-mas-deepfakes-han-sufrido-en-2024/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/10/01/donald-trump-elon-musk-y-taylor-swift-la-lista-de-famosos-que-mas-deepfakes-han-sufrido-en-2024/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[La creación de estos videos falsos puede tardar 10 segundos gracias al uso de la inteligencia artificial]]></description><pubDate>Tue, 01 Oct 2024 15:50:27 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/B5SM5RSZGJB2TB74HYNJ5M5VLY.jpg?auth=fa4b2afff69ce43ada1113431b6d4bb9b271c2a1b61753ce8cfa9f68fa781d03&smart=true&width=2461&height=1384" alt="Los deepfakes son usados para difundir información falsa o crear estafa en internet.  (Foto AP/Evan Vucci, Archivo)" height="1384" width="2461"/><p>En 2024, la tecnología de deepfake ha alcanzado un nivel de sofisticación que hace cada vez más difícil distinguir la realidad de la ficción en videos de figuras públicas. Lo que comenzó como un experimento técnico limitado a expertos, se ha convertido en un fenómeno accesible para cualquier persona con una conexión a internet y <a href="https://www.infobae.com/tecno/2024/10/01/mark-zuckerberg-hizo-tres-predicciones-en-2016-y-todas-se-han-cumplido/" target="_blank">unas pocas herramientas digitales. </a>Figuras como Donald Trump, <a href="https://www.infobae.com/tecno/2024/09/30/que-opina-bill-gates-elon-musk-y-tim-cook-sobre-el-uso-del-celular-para-los-ninos/" target="_blank">Elon Musk</a> y Taylor Swift encabezan la lista de los famosos más en sufrir este tipo de suplantación.</p><p>Un estudio realizado por Kapwing, una empresa que se especializa en la creación y edición de videos con IA, revela cuáles son las figuras públicas más utilizadas en los vídeos deepfake, poniendo en evidencia esta tendencia, que en ocasiones busca generar contenido de humor,<b> pero también información de mala manera a los usuarios o directamente suplantar la identidad de alguien para realizar estafas.</b></p><h2>Qué es un deepfake y por qué es tan problemático</h2><p>Los deepfakes son videos manipulados que utilizan inteligencia artificial para reemplazar el rostro o la voz de una persona con los de otra, de forma extremadamente realista. En sus inicios, crear uno requería grandes cantidades de datos y procesamiento computacional, pero los avances tecnológicos recientes han facilitado su creación. Hoy en día, <b>un video convincente puede hacerse con tan solo 10 segundos de imágenes originales y unos clics, lo que abre la puerta a todo tipo de usos malintencionados.</b></p><img src="https://www.infobae.com/resizer/v2/DQUTVE6LXPE6XDV4PTE5A4KKWA.jpg?auth=43a368b8ee734abca8aac10ebf37cee761b80816ced579ff9cf118b557fa68b1&smart=true&width=6000&height=4000" alt="Los deepfakes son usados para difundir información falsa o crear estafa en internet.  (AP Foto/Julio Cortez, Archivo)" height="4000" width="6000"/><p>El principal problema con los deepfakes radica en su capacidad para difundir información falsa y desinformación de manera efectiva. En el contexto político, por ejemplo, se han utilizado para influir en la opinión pública, mientras que en el entretenimiento y las redes sociales, han generado controversia por el uso no autorizado de la imagen de celebridades. <b>Según el estudio, “la mayoría de los deepfakes se hacen para influir en la opinión pública, habilitar estafas o generar beneficios económicos”.</b></p><p>Además, el hecho de que estos videos puedan hacerse con facilidad y rapidez, sin requerir grandes cantidades de datos o entrenamiento especializado, significa que la tecnología está al alcance de cualquiera. <b>Esto aumenta el riesgo de abuso, ya que los usuarios malintencionados pueden crear videos que parecen auténticos, pero que en realidad son fabricados para engañar o perjudicar.</b></p><h2>Los famosos más afectados en 2024</h2><p>Kapwing realizó un análisis de los personajes públicos más afectados por esta tecnología en 2024. Para ello, examinaron las solicitudes de deepfakes realizadas en una de las herramientas de IA más activas en Discord, don<b>de contaron manualmente el número de veces que se solicitaba la creación de videos falsos de más de 500 figuras influyentes de la cultura estadounidense.</b></p><img src="https://www.infobae.com/resizer/v2/LHF76Q4G4JFD7GI2O7HZXY6FLQ.jpg?auth=19dc75f997754b035fbb286100ccad1cc7277c317e7b2d770514f2a55de34dba&smart=true&width=1456&height=816" alt="Los deepfakes son usados para difundir información falsa o crear estafa en internet. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p><b>El resultado reveló un ranking de los famosos más deepfakeados, encabezado por Donald Trump, quien acumuló más de 12.000 videos manipulados solo en este año.</b> A Trump le siguen figuras igualmente destacadas como Elon Musk y Taylor Swift, quienes también han sido objeto de múltiples manipulaciones. A continuación, se presenta el listado de los 10 famosos más afectados por los deepfakes en 2024:</p><ul><li><b>Donald Trump:</b>12.384 videos</li><li><b>Elon Musk:</b> 9.544 videos</li><li><b>Taylor Swift:</b> 8.202 videos</li><li><b>Joe Biden:</b> 7.956 videos</li><li><b>Tom Cruise:</b> 2.308 videos</li><li><b>Dwayne Johnson:</b> 1.970 videos</li><li><b>Cristiano Ronaldo:</b> 1.948 videos</li><li><b>Mark Zuckerberg:</b> 1.738 videos</li><li><b>Will Smith:</b> 1.609 videos</li><li><b>Beyoncé:</b> 1.328 videos</li></ul><img src="https://www.infobae.com/resizer/v2/3R5IC6FJVBCNVJGID7HVXFVEUQ?auth=556774a550365e0f310129779e46ac2648223bfa691f0ac8f456ae161a54a995&smart=true&width=5136&height=2889" alt="Los deepfakes son usados para difundir información falsa o crear estafa en internet. (REUTERS/Hamad I Mohammed)" height="2889" width="5136"/><h2>Cómo detectar un deepfake</h2><p>Con la creciente prevalencia de los deepfakes, es importante que los usuarios de internet sepan cómo detectar estos videos manipulados. Eric Lu, cofundador de Kapwing, ofrece tres consejos clave para identificar deepfakes modernos:</p><ul><li><b>Movimiento inconsistente de los labios y los dientes</b>: la sincronización labial puede fallar en detalles como la alineación de los dientes o el movimiento de los labios. En algunos casos, el área alrededor de la boca puede verse borrosa o con colores poco naturales.</li><li><b>Movimientos corporales inusuales</b>: los deepfakes a menudo se centran en el rostro, lo que significa que los movimientos corporales o gestos pueden no coincidir con el diálogo o las expresiones faciales. Si el sujeto no parpadea o lo hace de manera extraña, puede ser una señal de manipulación.</li><li><b>Voces inanimadas y patrones de respiración inusuales</b>: las voces clonadas suelen carecer de las variaciones naturales del habla humana, y las pausas o la respiración pueden sonar antinaturales.</li></ul>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/B5SM5RSZGJB2TB74HYNJ5M5VLY.jpg?auth=fa4b2afff69ce43ada1113431b6d4bb9b271c2a1b61753ce8cfa9f68fa781d03&amp;smart=true&amp;width=2461&amp;height=1384" type="image/jpeg" height="1384" width="2461"><media:description type="plain"><![CDATA[Los deepfakes son usados para difundir información falsa o crear estafa en internet. (Foto AP/Evan Vucci, Archivo)]]></media:description><media:credit role="author" scheme="urn:ebu">Evan Vucci</media:credit></media:content></item><item><title><![CDATA[Cuáles son las estadísticas y conclusiones del “reporte sobre ciberviolencia contra las mujeres”, firmado por la Unión Europea]]></title><link>https://www.infobae.com/opinion/2024/10/01/cuales-son-las-estadisticas-y-conclusiones-del-reporte-sobre-ciberviolencia-contra-las-mujeres-firmado-por-la-union-europea/</link><guid isPermaLink="true">https://www.infobae.com/opinion/2024/10/01/cuales-son-las-estadisticas-y-conclusiones-del-reporte-sobre-ciberviolencia-contra-las-mujeres-firmado-por-la-union-europea/</guid><dc:creator><![CDATA[Luciana Peker]]></dc:creator><description><![CDATA[Una investigación de la comunidad europea advirtió sobre los efectos de la violencia online en el trabajo de las mujeres. Expresa, entre otras consideraciones, que el 37% evita realizar notas o coberturas informativas por temor a ser agredidas en las redes sociales y que el 76% de las personalidades con voz pública cambió su manera de manifestarse a través de Instagram y X]]></description><pubDate>Tue, 01 Oct 2024 05:02:25 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/A5BVZG7LBJDLZOMQGICH5DJCXQ.png?auth=fff68c98fb08451026336de25f7fd229b78f2261d80083bc6f85eb395a14965b&smart=true&width=1980&height=1020" alt="Una de cada cinco mujeres víctimas de violencia en línea experimentó síntomas psicológicos como estrés, ansiedad, miedo o insomnio y una de cada diez terminó con una relación personal dañada, según datos de ONU Mujeres" height="1020" width="1980"/><p>El 73% de las mujeres periodistas sufrió violencia online en su trabajo. No son gajes del oficio, sino amenazas de violencia física y sexual según el <b>“Reporte sobre ciberviolencia contra las mujeres”, de la Unión Europea y Lobby de Mujeres Europeas</b> (EWL, por sus siglas en inglés). La autora es Virginia Dalla Pozza y resalta: “Los efectos psicológicos son especialmente perjudiciales para las víctimas. Entre ellos se incluyen graves trastornos emocionales y psicológicos, ansiedad, depresión, estrés postraumático y, en casos extremos, ideación suicida, autolesiones, intentos de suicidio o suicidio”.</p><p>Una de cada cinco mujeres víctimas de violencia en línea experimentó síntomas psicológicos como<b> estrés, ansiedad, miedo o insomnio</b>; una de cada cuatro mujeres se sintió avergonzada; una de cada cinco se empezó a mostrar insegura y una de cada diez terminó con una relación personal dañada, según datos de una encuesta, realizada en 2023, por ONU Mujeres. La liberación de la palabra que se generó con <i>Ni Una Menos</i> y el <i>Me Too</i> implicó romper el silencio social sobre los problemas que afectaban a las mujeres. <b>La violencia online no es una amenaza, es una realidad</b>. Las consecuencias actuales ya son el silenciamiento, el abandono de la participación en línea, el aislamiento y la autocensura.</p><p>Las periodistas que son víctimas de violencia de género minimizaron su participación en internet, se restringen en las aplicaciones tecnológicas y se autocensuran. “El principal efecto en las víctimas de la incitación al odio por motivos de género es la retirada de las redes sociales u otras plataformas públicas. Las mujeres tienden <b>a publicar con menos frecuencia, a suavizar su lenguaje</b> para mitigar la provocación (autocensura) o incluso a desactivar sus cuentas. Piensan que manteniendo un perfil bajo evitarán llamar más la atención sobre sí mismas”, concluye el informe de la Unión Europea.</p><img src="https://www.infobae.com/resizer/v2/B7KMCDFGXFGTVPZ4QWQAHWH4ZQ.png?auth=aca333282ed5fe125dce271a7de308fe36ef8d599387c2160cf1b3d24dec29c1&smart=true&width=1832&height=1572" alt="El informe de Periodistas Argentinas, presentado en la Facultad de Derecho de la Universidad de Buenos Aires (UBA), advierte sobre la tecnocensura por las agresiones en redes sociales" height="1572" width="1832"/><p>El 76% de las mujeres cambió su manera de utilizar las redes sociales tras sufri<i>r ciberacoso </i>y el 32% dejó de publicar sus opiniones sobre determinados temas, según un relevamiento de Amnistía Internacional. Las más afectadas por la violencia digital son <b>las periodistas y las políticas</b>: los efectos sobre ellas (contra ellas) son particularmente perjudiciales. Si la idea era ver cuánto han avanzado las muchachas ahora los ataques generan que <b>las muchachas retrocedan</b>. “María La Paz, la Paz, la paz. Tres pasos pa’ atrás pa’ atras, pa’tras”, se podría cantar.</p><p>¿Empoderamiento? ¿Qué era eso? La era del desempoderamiento no es por el síndrome de la impostora, la fragilidad emocional o la falta de capacidad. La violencia deja secuelas: las políticas no quieren hacer política y las periodistas no quieren hacer periodismo. ¿Ambiciosas? Una especie en extinción. ¿Los depredadores? Haters, trolls, misóginos impunes, premiados y con cargos. ¿Libertad de expresión, en qué siglo importaba esa libertad? <b>El 30% de las mujeres periodistas se autocensuran en las redes sociales</b> como consecuencia de la violencia y el 37% evita ciertas notas como consecuencia de experiencias previas con amenazas, acoso o ataques.</p><p>La ciberviolencia es el uso de las tecnologías en línea y de la comunicación para causar, facilitar o amenazar. La violencia facilitada por la tecnología (VFT) implica cualquier acto cometido, asistido, agravado o amplificado por el uso de las TIC u otras herramientas digitales que tenga -o pueda tener- como resultado un daño físico, sexual, psicológico, social, político o económico. Los instrumentos en donde se pueden realizar (o recibir) estas agresiones son: teléfonos móviles, Internet, plataformas de medios sociales, juegos de computadora, mensajes de texto, correo electrónico y otras tecnologías.</p><img src="https://www.infobae.com/resizer/v2/A5QSVUAWMJEABP4UV2MOE53MVU.png?auth=95dd8f61f67b3e58c3d3d7824129837a9aaf7a430eb186a187105985d19b6974&smart=true&width=1832&height=1372" alt="Una encuesta muestra el rechazo social a los ataques a la libertad de expresiòn por parte del gobierno de La Libertad Avanza (LLA)" height="1372" width="1832"/><p>“Estas formas de violencia tienen un <b>efecto mental devastador</b> en las mujeres”, alerta la Unión Europea. Uno de los mayores problemas es la masividad de la violencia digital y que genera efectos para la víctima y causa un impacto social que parece irrefrenable. “Tiene un amplio alcance, transmisión y rapidez: la fácil y rápida difusión de contenidos a través de múltiples plataformas y medios sociales dificulta el control del tipo de información que se difunde por medios digitales”, describe la investigación.</p><p>Otro grave problema es la impunidad por la<b> falta de identificación</b>: “Ofrece desinhibición: el anonimato reforzado que ofrecen los espacios digitales y virtuales a través de protocolos de encriptación y privacidad permite a los usuarios comportarse con anonimato e impunidad. Esto dificulta especialmente la identificación de los autores”, acentúa la investigación. Pero además hay mucha sensación de frustración frente a la posibilidad de borrar o dar marcha atrás a los comentarios con insultos o amenazas. Si alguien te dice “puta” esa marca va a quedar. “Es difícil de eliminar: el contenido violento se vuelve persistente, difícil de eliminar y, por tanto, vuelve a traumatizar a las víctimas”.</p><p>La lucha por la igualdad requiere entender que la violencia no es igual para varones y mujeres. “Aunque los hombres también pueden sufrir violencia y abusos en línea, las mujeres y las niñas tienen más probabilidades de experimentar formas únicas de violencia de género en contextos digitales, lo que refleja un patrón similar al de la violencia contra las mujeres y las niñas en el mundo físico”, destaca el informe europeo.</p><p>La violencia no nació con la expansión del Covid -19 pero la pandemia encerró a las mujeres y liberó la onda expansiva de la misoginia extrema. “Aunque los hombres eran ligeramente más propensos que las mujeres a sufrir formas leves de ciberacoso (por ejemplo, insultos), las mujeres experimentan de forma desproporcionada formas graves como el ciberacoso y el acoso sexual en línea. Con el aumento del uso de las tecnologías digitales debido a la pandemia las mujeres y las niñas tienen más probabilidades que los hombres de ser víctimas de formas graves y el impacto en sus vidas es mucho más traumático”, según una encuesta realizada, en 2021, por Pew Research Center.</p><img src="https://www.infobae.com/resizer/v2/4RTBGEF4JBC7BLZMVWL6MLZX3M.jpg?auth=b1dea8692150748f48ccfb5e351d77693e8d2430c5f6f66d14c87daf4fdbcf90&smart=true&width=1456&height=816" alt="El 30% de las mujeres periodistas se autocensuran en las redes sociales como consecuencia de la violencia y el 37% evita ciertas notas como consecuencia de experiencias previas con amenazas, acoso o ataques (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>El nuevo desafío es la conexión entre la inteligencia artificial y los prejuicios sexistas. “Las investigaciones muestran que los sistemas de IA creados por los gigantes tecnológicos tienen un gran sesgo de género y racial. Los estereotipos refuerzan y amplifican los prejuicios de género existentes. Sólo el 22% de los profesionales en los campos de la IA y la ciencia de datos son mujeres. Los algoritmos y los dispositivos tienen el potencial de difundir y reforzar estereotipos de género nocivos. Otro aspecto vinculado al uso de la IA es el fuerte aumento de las falsificaciones digitales de carácter sexual, comúnmente conocidas como <i>deepfakes</i>. Las herramientas de IA para crear falsificaciones digitales sexuales se están desarrollando rápidamente y son cada día más baratas, sofisticadas y accesibles para los usuarios. El Informe sobre Riesgos Mundiales del Foro Económico Mundial calificó a <b>la desinformación como el riesgo global a corto plazo más grave </b>al que se enfrenta el mundo en los próximos dos años”, resalta la investigación europea.</p><p>La mayoría de los vídeos falsificados digitalmente que circulan actualmente por Internet contienen imágenes sexuales de mujeres. La tecnología generó que sea fácil desnudar a una joven o armar un falso video porno. Se calcula que entre el 90% y el 95% de todos los <i>deepfakes </i>digitales son de material que muestra desnudos o actividades sexualmente explícitas. El 90% de los videos son de mujeres. En 2020, se creó un chatbot de Telegram que puede utilizarse para crear retratos robot de desnudos profundos. Al proporcionar al chatbot una foto de alguien, se podía recibir una versión sin ropa de esa persona. El bot creaba exclusivamente desnudos femeninos. En el momento en que se hizo público el informe ya se había atacado a más de 100.000 mujeres.</p><p>Hay algo central: no es Internet, no es la IA, no es lo que sucede naturalmente -como solía ocurrir la violencia de género y parecía una práctica normal de la vida privada-; estas son acciones orquestadas. “La difusión o amplificación de contenido (incluido el abuso) que parece surgir orgánicamente a nivel popular y que, en realidad, es coordinada, a menudo utilizando múltiples cuentas falsas, por un individuo, grupo de interés, partido político u organización”, subraya el “Reporte sobre ciberviolencia contra las mujeres”, de la Unión Europea.</p><p>Ser periodista es exponerse a mostrar el trabajo, pero no los dientes, la piel, la panza, la cola o el pelo como si cada reportera, cronista, conductora, columnista tuviese que exhibir cada partícula corporal para poder trabajar y para poder sobrevivir. Las lesiones de los comentarios sobre el cuerpo son mucho más graves que antes de la necesidad de mostrar todo (especialmente el trabajo) en las redes sociales.<b> El </b><i><b>body shaming</b></i><b> es comentar y burlarse de la form</b>a, el tamaño o la apariencia corporal de una persona. El<i> ciberflashing</i> consiste en enviar imágenes sexuales no solicitadas a través de aplicaciones de citas o con <i>Airdrop</i> o <i>Bluetooth</i>. En la mayoría de los casos se produce cuando alguien envía una imagen no deseada de los genitales o se expone a través de un vídeo en directo, en apps de citas o con personas que se tiene una relación o que se comienza a chatear. Las fotos de penes pueden llegarle también a periodistas como forma de asquearlas, impresionarlas o amedrentarlas.</p><img src="https://www.infobae.com/resizer/v2/7QSUHBQDUBELHBEXPORDQYXY7I.jpg?auth=1e07f878e80f5ca37192d3f63f001cedf75c6627c7394d34f5cb84850fd1fcc4&smart=true&width=1456&height=816" alt="Sólo el 22% de los profesionales en los campos de la IA y la ciencia de datos son mujeres. Los algoritmos y los dispositivos tienen el potencial de difundir y reforzar estereotipos de género nocivos (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Una práctica que se está amplificando es hacer <i>doxing,</i> que es el acto de compartir en línea la información personal de una persona (número de teléfono, dirección de correo electrónico, domicilio, contactos profesionales) para facilitar agresiones. En un país como Argentina, con altos niveles de robos e inseguridad, el <i>doxeo</i> es mucho más grave ya que quedar expuesta es altamente peligroso, pero para las periodistas que son madres y que por una nota, un tuit o una opinión se publica la dirección donde viven sus hijos o hijas la paralización, la culpa y el miedo son más graves y con efectos nocivos.</p><p>Los ataques a mujeres son mucho más alto que a cualquier otro grupo por su condición étnica o social. “<b>La misoginia es la forma más prevalente de odio en línea </b>en todas las plataformas examinadas”, destaca la UE y advierte: “También hay mayores niveles de incitación a la violencia contra las mujeres en comparación con los otros grupos y la violencia cibernética contra las mujeres se basa más a menudo en la violencia sexual”. La situación es extendida en el mundo: “Un estudio estadounidense reveló que el 33 % de las mujeres menores de 35 años declaran haber sufrido acoso sexual en línea frente al 11 % de los hombres. Del total de mujeres víctimas el 47% cree haber sufrido acoso por razón de su sexo, mientras que apenas el 18% de los hombres que han sido acosados en línea cree lo mismo”.</p><p>No hay manera de seguir contando el mundo si las mujeres se tienen que callar.</p><p>“Al silencio no volvemos nunca más”, es una consigna. Debería ser una meta. Pero no es una realidad.</p><p>Hoy las mujeres vuelven a ser silenciadas.</p><p><br/></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/A5BVZG7LBJDLZOMQGICH5DJCXQ.png?auth=fff68c98fb08451026336de25f7fd229b78f2261d80083bc6f85eb395a14965b&amp;smart=true&amp;width=1980&amp;height=1020" type="image/png" height="1020" width="1980"><media:description type="plain"><![CDATA[En Colombia, el 60% de las mujeres entre 18 y 40 años en el país aseguraron haber sido acosadas a través de herramientas digitales - crédito Montaje Infobae]]></media:description></media:content></item><item><title><![CDATA[Google dice adiós a los deepfakes explícitos que afectaron actores como Taylor Swift]]></title><link>https://www.infobae.com/tecno/2024/09/13/google-dice-adios-a-los-deepfakes-explicitos-que-afectaron-actores-como-taylor-swift/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/09/13/google-dice-adios-a-los-deepfakes-explicitos-que-afectaron-actores-como-taylor-swift/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[Uno de los métodos es mostrar contenido educativo sobre los riesgos y peligros de estas imágenes y videos hechos con IA]]></description><pubDate>Fri, 13 Sep 2024 03:30:16 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/YC7Q2PQHOTHQVOJJKLEANJYKSY.jpg?auth=0968ba1edeccd4ac4892775bdefa3c0ac1c541c1ba099421e1053b6f9fa8d6e9&smart=true&width=5500&height=3667" alt="Los deepfakes explícitos se suelen promocionar con actores o personalidades famosas. (REUTERS/Annegret Hilse/File Photo)" height="3667" width="5500"/><p>Uno de los fenómenos más preocupantes con <a href="https://www.infobae.com/tecno/2024/08/01/como-se-veria-una-pelicula-de-los-x-men-en-los-anos-50-segun-la-inteligencia-artificial/" target="_blank">el fortalecimiento de la inteligencia artificial </a>es la generación de imágenes y videos en los que se retratan a personas en contextos explícitos y sin su consentimiento. Este tipo de contenidos se conocen como deepfakes y <a href="https://www.infobae.com/tecno/2024/07/31/dile-adios-a-uno-de-los-servicios-de-google-que-ha-estado-presente-hace-anos-en-su-buscador-chrome/" target="_blank">Google</a> ha anunciado una serie de medidas para combatir este problema y proteger a las víctimas de este tipo de abuso digital.</p><p>Hace solo unas semanas, al buscar en la plataforma “deepfake nudes Jennifer Aniston” arrojaba múltiples resultados que pretendían contener imágenes explícitas de la actriz generadas por IA. <b>Hoy en día, esos resultados ya no aparecen gracias a los nuevos ajustes, debido a la forma en la que la aplicación clasifica estos contenidos.</b></p><p>Emma Higham, jefa de producto de Google, explicó, a través del blog de la plataforma, que los nuevos cambios implementados este año han reducido <b>la exposición a imágenes explícitas falsas en más de un 70% en consultas que buscan contenido sobre una persona específica.</b></p><img src="https://www.infobae.com/resizer/v2/7PJJFXLM6FCLHPSIZTFHXAHUIQ.png?auth=4f6e8fb0fcea49680bc18c1f7b53512d0589afb7a34e21bd78fa9cc9f312768f&smart=true&width=1200&height=700" alt="Los deepfakes explícitos se suelen promocionar con actores o personalidades famosas. (Google)" height="700" width="1200"/><h2>Los cambios de Google para reducir los deepfake</h2><p>Google ha facilitado durante años la solicitud de eliminación de imágenes explícitas no consensuadas. No obstante, las nuevas medidas buscan hacer este proceso aún más sencillo y eficaz. Las personas ahora pueden solicitar la eliminación de imágenes explícitas falsas y, una vez aceptada la solicitud,<b> los sistemas de la aplicación también filtrarán todos los resultados explícitos similares sobre esa persona.</b></p><p>Además, si una imagen se elimina bajo estas políticas, los sistemas escanearán y eliminarán cualquier duplicado de esa imagen que se encuentre.</p><p>Pero la lucha contra los deepfakes no se detiene en la eliminación de contenido. Google también ha realizado mejoras en sus sistemas de clasificación de resultados de búsqueda y <b>se están implementando actualizaciones en el ranking que reducirán el contenido explícito falso en muchas búsquedas.</b></p><p>Para consultas que específicamente buscan este tipo de contenido e incluyen nombres de personas, <b>la aplicación buscará mostrar contenido no explícito de alta calidad, como artículos de noticias relevantes.</b></p><img src="https://www.infobae.com/resizer/v2/6G2UOYVNDCMIV5AWSE7JNGODHE.jpg?auth=8d2dbc934fa7d5c3448f0f1773dbf318c79f981d65e2a0fbd2e54693c77e6f5c&smart=true&width=8192&height=5464" alt="Los deepfakes explícitos se suelen promocionar con actores o personalidades famosas. (REUTERS/Andrew Kelly/File Photo)" height="5464" width="8192"/><p><b>Los cambios realizados este año han reducido la exposición a resultados de imágenes explícitas en este tipo de consultas en más de un 70%</b>. Con estas modificaciones, las personas pueden leer sobre el impacto que los deepfakes están teniendo en la sociedad, en lugar de ver páginas con imágenes falsas sin consentimiento.</p><h2>Diferenciación entre contenido explícito real y falso</h2><p>Uno de los mayores desafíos técnicos para los motores de búsqueda es distinguir entre contenido explícito real y consensuado, <b>como escenas de desnudos de un actor en una película, y contenido explícito falso, como deepfakes que involucran a ese actor.</b></p><p>Generalmente, si un sitio tiene muchas páginas eliminadas de la búsqueda bajo las políticas de Google, esto es una señal fuerte de que no es un sitio de alta calidad, y se debe tener en cuenta al clasificar otras páginas de ese sitio.</p><img src="https://www.infobae.com/resizer/v2/RGVEZGIRBC74EDZ5HCZII5I5AI.jpg?auth=dd7cada941b75df825bad29cebd6e357ebcc7a5a8fef3dc46f4b16f6ec1fe9c6&smart=true&width=4000&height=2875" alt="Los deepfakes explícitos se suelen promocionar con actores o personalidades famosas. (REUTERS/Dado Ruvic/Illustration/File Photo)" height="2875" width="4000"/><p><b>Por lo tanto, se están degradando los sitios que han recibido un alto volumen de eliminaciones de imágenes explícitas falsas</b>. Este enfoque ha funcionado bien para otros tipos de contenido dañino y las pruebas de Google muestran que será una forma de reducir el contenido explícito falso en los resultados de búsqueda.</p><p>A pesar de estas medidas, Google reconoce que las soluciones actuales no son perfectas. Los esfuerzos para combatir los deepfakes explícitos son un trabajo en progreso y la plataforma continúa desarrollando nuevas soluciones para ayudar a las personas afectadas por este tipo de contenido.</p><p>Además, dado que este desafío va más allá de los motores de búsqueda, <b>la empresa sigue invirtiendo en asociaciones a nivel de la industria y en el compromiso con expertos para abordar el problema como sociedad.</b></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/YC7Q2PQHOTHQVOJJKLEANJYKSY.jpg?auth=0968ba1edeccd4ac4892775bdefa3c0ac1c541c1ba099421e1053b6f9fa8d6e9&amp;smart=true&amp;width=5500&amp;height=3667" type="image/jpeg" height="3667" width="5500"><media:description type="plain"><![CDATA[Los deepfakes explícitos se suelen promocionar con actores o personalidades famosas. (REUTERS/Annegret Hilse/File Photo)]]></media:description><media:credit role="author" scheme="urn:ebu">Annegret Hilse</media:credit></media:content></item><item><title><![CDATA[Una crisis de desnudos falsos generados por IA sacude a Corea del Sur: “Cualquiera puede ser víctima”]]></title><link>https://www.infobae.com/america/mundo/2024/08/29/una-crisis-de-desnudos-falsos-generados-por-ia-sacude-a-corea-del-sur-cualquiera-puede-ser-victima/</link><guid isPermaLink="true">https://www.infobae.com/america/mundo/2024/08/29/una-crisis-de-desnudos-falsos-generados-por-ia-sacude-a-corea-del-sur-cualquiera-puede-ser-victima/</guid><dc:creator><![CDATA[Rossana Marín]]></dc:creator><description><![CDATA[Las imágenes, que según las autoridades del país asiático se difundían por grupos de Telegram, eran elaboradas a partir de fotos reales y transformadas en contenido sexual explícito]]></description><pubDate>Thu, 29 Aug 2024 02:28:05 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/EDDMYDD2GZATLKOSBJFR6UPSTE.jpg?auth=8307d4ce036e745a36f9f829e229b9104233421d4fe31c38103c32e1883bb389&smart=true&width=1456&height=816" alt="Autoridades surcoreanas lanzaron una investigación masiva sobre crisis de imágenes pornográficas falsificadas en Telegram. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>El miércoles 28 de agosto, las autoridades de <b>Corea del Sur</b> iniciaron una investigación masiva para combatir la creciente crisis de <b>imágenes pornográficas falsificadas</b> que surgió tras el descubrimiento de una red de <b>Telegram</b> dedicada a la creación de estos contenidos.</p><p>Según informó <i>The Wall Street Journal (WSJ)</i>, esta red ha afectado a cientos de víctimas, muchas de ellas menores de edad. Las imágenes, creadas a partir de fotos reales, fueron convertidas en contenido sexual explícito y vistas por cientos de miles de usuarios.</p><p><b>Telegram</b>, una plataforma de mensajería utilizada para distribuir estas imágenes, ha sido central en la difusión de contenido manipulado digitalmente sin el consentimiento de las personas afectadas. Las víctimas incluyen profesores, oficiales militares, estudiantes universitarios y alumnos de primaria.</p><img src="https://www.infobae.com/resizer/v2/TJKCUOT2AIJ22IWKIQI7SC67W4.jpg?auth=00efc462fd7d975e37156843ce87b275e20e436fc7d0ce2301238650d0044224&smart=true&width=3500&height=2164" alt="A través de la red de Telegram se compartió contenido sexual explícito creado a partir de fotos reales, afectando a cientos de mujeres, incluidas menores de edad. (REUTERS/Dado Ruvic)" height="2164" width="3500"/><p><b>Yoon Suk Yeol</b>, presidente de <b>Corea del Sur</b>, calificó estos actos como “delitos claros que explotan la tecnología bajo el escudo del anonimato”, subrayando que “<b>cualquiera puede ser una víctima</b>”. Este fenómeno ha situado a <b>Corea del Sur</b> como uno de los principales países donde se origina cerca del 50% de este tipo de contenidos a nivel mundial, según informes de investigadores.</p><p>El Ministerio de Educación está revisando el castigo máximo para los adolescentes involucrados en la creación de estas imágenes, ya que las protecciones actuales en <b>Corea del Sur</b> no han logrado mantenerse al día con las amenazas que representan los contenidos sexualizados generados por inteligencia artificial. Los legisladores están trabajando para cerrar vacíos legales y extender las penas más allá de quienes intencionalmente difunden este contenido ilícito.</p><p>La red de <b>Telegram</b> operaba a través de chats organizados por nombre de escuela o región, facilitando la identificación de conocidos entre los usuarios. Para acceder a estos grupos, algunos participantes debían proporcionar fotos de una mujer, generalmente extraídas de las cuentas de redes sociales de sus compañeras, según autoridades y activistas.</p><img src="https://www.infobae.com/resizer/v2/OPSKR3IETU6OGWZ7KVQUM3BY4Y.jpg?auth=a710b553bf2555ad691ab4259126e636d8546771406a263538f13097d53c903b&smart=true&width=3500&height=2440" alt="El presidente Yoon Suk Yeol calificó los actos como "delitos claros que explotan la tecnología", subrayando que "cualquiera puede ser una víctima". (Kim Min-Hee/REUTERS)" height="2440" width="3500"/><p>La comunicación en estos chats se realizaba casi exclusivamente en coreano, lo que sugiere que la mayoría de los miembros eran locales, informó el <i>WSJ</i>.</p><p>A principios de este mes, una investigación policial reveló la existencia de un grupo de <b>Telegram</b> con aproximadamente 1.200 miembros activos desde el año 2020 en una universidad surcoreana. <b>En este grupo, además de compartir imágenes manipuladas, también distribuían información personal de las víctimas</b>, como números de teléfono, direcciones y números de identificación estudiantil.</p><p>Voluntarios que han estado revisando los chats de <b>Telegram</b> estiman que unos 500 centros educativos, desde universidades hasta escuelas primarias, podrían haber sido afectados. <b>Un sitio web que ofrece una lista de las escuelas involucradas ha acumulado alrededor de tres millones de visitas desde su lanzamiento</b>.</p><h2>La captura de Pavel Durov</h2><p>Aunque se inició una represión contra las <b>imágenes pornográficas falsificadas</b> en <b>Telegram</b>, esta acción ha llegado en un contexto de preocupación internacional.</p><img src="https://www.infobae.com/resizer/v2/SFRBOO32DPTTGF26K2AWRQID6I.jpg?auth=c7b7619eb553872bdac76bab48cf5fe06358db2bbd3bc4a5da85e97de1984596&smart=true&width=2893&height=1929" alt="El Ministerio de Educación está revisando las sanciones máximas para los adolescentes implicados en la creación de estas imágenes. (Yonhap/REUTERS)" height="1929" width="2893"/><p>Días antes del anuncio surcoreano, las autoridades francesas detuvieron a <b>Pavel Durov</b>, fundador y director ejecutivo de <b>Telegram</b>, en relación con una investigación sobre la facilitación del crimen en línea a través de la plataforma, incluyendo la distribución de pornografía infantil.</p><p>En respuesta a la investigación surcoreana, un representante de <b>Telegram</b> declaró que la compañía elimina millones de contenidos dañinos cada día mediante moderación, herramientas de inteligencia artificial e informes de usuarios.</p><h2>No es un problema reciente</h2><p>El panorama no se limita solo a <b>Corea del Sur</b>. Según datos de 2023 de la empresa de prevención de fraude de identidad <b>Security Hero</b>, alrededor del 50% de las personas presentadas en pornografía profunda en línea son cantantes y actrices surcoreanas, analizando cerca de 100.000 videos distribuidos en más de 100 sitios web.</p><p>Las mujeres surcoreanas han estado en riesgo elevado de aparición no consentida de sus imágenes sexuales en línea durante años. Las autoridades municipales inspeccionan los baños públicos para detectar cámaras ocultas, y celebridades han sido acusadas de difundir grabaciones obtenidas ilegalmente.</p><img src="https://www.infobae.com/resizer/v2/T3GK6IR2YUGXURZWXQKMAGP2JQ.jpg?auth=b9a69b3ea55d48a66aabd43c7a81056e09e4704864b4b420c6bad9aa2f422714&smart=true&width=5193&height=3462" alt="Grupos de Telegram operaban por nombre de escuela o región, facilitando la identificación de conocidos entre los usuarios. (Chung Sung-Jun/REUTERS)" height="3462" width="5193"/><p>Este año, más de 6.000 surcoreanos han solicitado la eliminación de imágenes pornográficas falsas creadas sin su consentimiento, según datos regulatorios estatales hasta julio, que se acercan ya al total anual del año pasado de aproximadamente 7.000 solicitudes.</p><p>De las cerca de 300 personas acusadas de crear y distribuir <b>imágenes pornográficas falsificadas</b> desde principios de 2023, aproximadamente el 70% eran adolescentes, según la <b>Agencia Nacional de Policía de Corea</b>.</p><p><b>La Federación Coreana de Sindicatos de Profesores</b> sugirió en una declaración reciente que la responsabilidad de reportar e investigar estos casos ha caído mayormente sobre las escuelas. Recomendó establecer un mecanismo federal para identificar a los perpetradores.</p><p>La situación ha llevado a muchos estudiantes a hacer sus cuentas privadas o eliminar las fotos que habían publicado en línea antes de que surja una respuesta adecuada o se penalice a los responsables.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/EDDMYDD2GZATLKOSBJFR6UPSTE.jpg?auth=8307d4ce036e745a36f9f829e229b9104233421d4fe31c38103c32e1883bb389&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[Autoridades surcoreanas lanzaron una investigación masiva sobre crisis de imágenes pornográficas falsificadas en Telegram. (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Taylor Swift, Rosalía y más famosas víctimas de deepfakes creados con Inteligencia Artificial  que te engañan a primera vista]]></title><link>https://www.infobae.com/tecno/2024/08/21/taylor-swift-rosalia-y-mas-famosas-victimas-de-deepfakes-creados-con-inteligencia-artificial-que-te-enganan-a-primera-vista/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/08/21/taylor-swift-rosalia-y-mas-famosas-victimas-de-deepfakes-creados-con-inteligencia-artificial-que-te-enganan-a-primera-vista/</guid><dc:creator><![CDATA[Dylan Escobar Ruiz]]></dc:creator><description><![CDATA[Esta problemática amenaza principalmente a las mujeres sin importar su fama, edad o estatus económico]]></description><pubDate>Wed, 21 Aug 2024 18:29:59 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/TJZKGS2WXJHR5A6OOPOT5T2KR4.jpg?auth=1972116074c37fe893fd0e6cd655ed5a4bb09ad241adb7fa808323d2f15ff496&smart=true&width=3072&height=2049" alt="La cantante fue víctima de fotos alteradas digitalmente a principios de 2024. (Foto: EFE/Rossella Papetti)
" height="2049" width="3072"/><p><a href="https://www.infobae.com/tecno/2024/08/20/whatsapp-acaba-el-numero-de-celular-esta-es-la-nueva-forma-de-comunicarnos-por-la-app/" target="_blank">En el último año, las redes sociales han sido el epicentro de una ola de imágenes sexualmente explícitas</a>, creadas a partir de inteligencia artificial (IA). Entre las víctimas de esta modalidad está la reconocida cantante Taylor Swift, quien se ha visto envuelta en un escándalo por la difusión masiva de deepfakes pornográficos que utilizan su imagen.</p><p><a href="https://www.infobae.com/tecno/2024/08/19/whatsapp-guia-practica-para-saber-si-alguien-esta-vigilando-tus-conversaciones/" target="_blank">Estos montajes digitales han generado una profunda preocupación no solo entre sus seguidores</a>, sino también en el ámbito de la ciberseguridad y la ética digital, y más aún cuándo estudios globales colocan al público femenino como las principales afectadas por la deepfakes.</p><p>Asimismo, Taylor Swift no es la única figura pública que ha sido blanco de estos ataques. <b>Rosalía, otra estrella musical, denunció recientemente la difusión de un deepfake en el que su imagen era manipulada para crear contenido explícito.</b> La artista española utilizó sus redes sociales para condenar este tipo de prácticas.</p><h2>Cómo filtraron deepfakes sexuales de Taylor Swift en la red</h2><img src="https://www.infobae.com/resizer/v2/GB6FCQ4ABMLGWIF4KBVAGBVXYQ.jpg?auth=f3f179a6e006b5dc5cb0eb4e54d68355b09ec65c424063d0f619f2b9f57bd38e&smart=true&width=800&height=602" alt="X fue la red social donde se filtraron este tipo de contenido. (Foto: via REUTERS/Archivo)" height="602" width="800"/><p>La controversia alcanzó su punto álgido en la plataforma X, anteriormente conocida como Twitter, <b>cuando una publicación que contenía estas imágenes manipuladas logró acumular más de 35 millones de visualizaciones y 24.000 reenvíos en un tiempo récord.</b></p><p>La cuenta del usuario que compartió el contenido fue suspendida por violar las políticas de la red social, pero la acción resultó ser insuficiente para detener la propagación del material, que rápidamente fue replicado por otras cuentas.</p><p>Este caso pone de manifiesto el creciente peligro que representan los deepfakes, una tecnología que ha avanzado de manera alarmante en los últimos años.</p><p><b>Utilizando algoritmos de aprendizaje profundo, estas herramientas son capaces de generar imágenes y videos falsos con un grado de realismo impresionante</b>, convirtiéndose en una amenaza significativa para la privacidad y la seguridad, especialmente para las mujeres.</p><h2>Qué dicen las plataformas sobre estos delitos</h2><img src="https://www.infobae.com/resizer/v2/WT7H2TS745GJBLED4DNWXHZU4Y.jpg?auth=1f50cf7da77f6940e6102803211ff96a5d571adb9249d20ec51edc49039172ed&smart=true&width=1456&height=816" alt="Las plataformas deben descartar el contenido que atente contra la integridad de los usuarios. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Las plataformas de redes sociales, como X, han intentado hacer frente a este fenómeno mediante políticas de “tolerancia cero” hacia el contenido falso. Sin embargo,<a href="https://www.infobae.com/tecno/2024/08/20/cuando-sale-el-nuevo-iphone-16-fecha-y-lugar-del-apple-event/" target="_blank"> la realidad demuestra que estos esfuerzos no siempre son efectivos.</a></p><p>A pesar de la eliminación de cuentas que comparten material manipulado, <b>el contenido suele resurgir en otros perfiles o plataformas, complicando enormemente el control y la eliminación de este tipo de material.</b></p><h2>Quiénes son los más afectados por las deepfakes</h2><p>El problema no se limita a las celebridades. Hace apenas unos meses, en la localidad española de Almendralejo, un grupo de menores fue víctima de una situación similar.</p><p><b>Fotos de las jóvenes fueron manipuladas mediante una aplicación de IA para crear imágenes explícitas</b>, desatando una oleada de indignación y un intenso debate público sobre los riesgos asociados al uso irresponsable de esta tecnología.</p><img src="https://www.infobae.com/resizer/v2/FHC32CPX6FDIJHHNFG2CIZMX4E.jpg?auth=f332fb56638ee965ceb719655f475295f26b2eed58bb62b5501074e9838661a6&smart=true&width=1456&height=816" alt="Las niñas y jóvenes son las más afectadas por esta ciberamenaza. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Este caso, aunque menos mediático, <b>es un claro ejemplo de cómo los deepfakes pueden afectar a cualquier persona</b>, independientemente de su fama, edad o estatus social.</p><h2>Qué tan fácil es crear una deepfake de una persona</h2><p><b>La facilidad con la que se pueden crear y distribuir deepfakes es alarmante. </b>Lo que antes requería sofisticadas habilidades de edición de video y recursos tecnológicos avanzados, ahora está al alcance de cualquier usuario con acceso a herramientas de IA cada vez más accesibles.</p><p>Esta democratización de la tecnología ha permitido que los deepfakes proliferen a un ritmo vertiginoso, <b>aumentando exponencialmente los riesgos para la privacidad y la seguridad personal.</b></p><p>Los expertos en ciberseguridad y ética digital advierten que la situación podría empeorar si no se toman medidas contundentes para regular el uso de estas tecnologías.</p><img src="https://www.infobae.com/resizer/v2/OVB2MO2RBFFMBJMJSRJMGIVCAA.jpg?auth=8ec9447a2bd899da342d79bb52d585a6a43538cb837d2e952f93921580764454&smart=true&width=1456&height=816" alt="El acceso masivo a la inteligencia artificial provoca que sea más común estos crímenes. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>La creación y difusión de deepfakes no solo vulnera los derechos de las personas afectadas, sino que también socava la confianza en los medios digitales y en la autenticidad de la información que circula en línea.</p><h2>Cómo evitar la creación de deepfakes</h2><p>En respuesta a este creciente problema, algunos gobiernos y organizaciones han comenzado a desarrollar legislación y estrategias para combatir el uso inadecuado de la IA. <b>Es esencial implementar tecnologías de detección avanzadas que identifiquen y bloqueen automáticamente estos contenidos en plataformas digitales.</b></p><p>Además, es crucial que las redes sociales refuercen sus políticas de moderación, eliminando rápidamente el material ofensivo y sancionando a los responsables. Paralelamente, <b>se deben promover campañas de concienciación para educar al público sobre los riesgos y las señales de los deepfakes.</b></p><p>Del mismo modo, es fundamental desarrollar y actualizar marcos legales que castiguen severamente la creación y difusión de deepfakes, protegiendo así la privacidad y la integridad de las personas.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/DZGWOGBU7ZGH5PRMQHIILVI6QA.jpg?auth=1e7733544fa62b1224d4ad00de9bef1c5962282d847af963f181c6e86b76f0e0&amp;smart=true&amp;width=3072&amp;height=2049" type="image/jpeg" height="2049" width="3072"><media:description type="plain"><![CDATA[La cantante fue víctima de fotos alteradas digitalmente a principios de 2024. (Foto: EFE/Rossella Papetti)]]></media:description><media:credit role="author" scheme="urn:ebu">ROSSELLA PAPETTI</media:credit></media:content></item><item><title><![CDATA[Ferrari se salvó de un gran ciberataque planeado con IA en WhatsApp, con esta simple pregunta]]></title><link>https://www.infobae.com/tecno/2024/07/29/una-simple-pregunta-salvo-a-ferrari-de-un-ciberataque-planeado-con-ia-en-whatsapp/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/07/29/una-simple-pregunta-salvo-a-ferrari-de-un-ciberataque-planeado-con-ia-en-whatsapp/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[Un delincuente suplantó la identidad del CEO de la compañía usando el deepfake de su voz]]></description><pubDate>Mon, 29 Jul 2024 21:28:34 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/KJZPVVNMY7KO6CABQ5AIADYF44.jpg?auth=a04c1d3568923a7ae54ae4e3e38635b9d0482b47ae9e283488e76d309af7aa30&smart=true&width=5500&height=4124" alt="Gracias a una pregunta sencilla, un directivo evitó un fraude financiero en la empresa italiana. (REUTERS/Daniele Mascolo)" height="4124" width="5500"/><p><a href="https://www.infobae.com/tecno/2024/07/29/cuidado-esto-es-lo-que-nunca-debes-preguntarle-al-nuevo-circulo-azul-de-whatsapp-la-ia-de-meta/" target="_blank">En algunos casos los ciberataques </a>no se resuelven por medio de sistemas complejos, sino gracias al sentido común. Un ejemplo de esto fue lo que sucedió recientemente con Ferrari, que fue víctima de un intento de <a href="https://www.infobae.com/tecno/2024/07/28/estos-son-los-celulares-que-no-tendran-whatsapp-a-partir-de-agosto-de-2024/" target="_blank">ataque con deepfake en WhatsApp</a>, en el que suplantaban la identidad de su CEO, Benedetto Vigna, mediante inteligencia artificial. Pero una pregunta sencilla evitó un desastre financiero.</p><p><b>Este intento de ataque se realizó por medio de </b><a href="https://www.infobae.com/tecno/2024/07/28/estos-son-los-celulares-que-no-tendran-whatsapp-a-partir-de-agosto-de-2024/" target="_blank"><b>WhatsApp</b></a><b> </b>y el objetivo era otro directivo de la compañía de autos, quien frenó el avance de esta amenaza haciendo una pregunta que solamente la persona real podía contestar.</p><h2>Así fue el ciberataque a Ferrari</h2><p>Todo comenzó una mañana de martes, cuando un ejecutivo de la compañía italiana empezó a recibir una serie de mensajes inusuales en su WhatsApp. <b>Los mensajes parecían provenir de Benedetto Vigna, CEO de Ferrari, y hablaban de una importante adquisición que la empresa estaba planeando</b>. “Oye, ¿has oído lo de la nueva adquisición que estamos planificando? Podría necesitar tu ayuda”, decía uno de los mensajes.</p><img src="https://www.infobae.com/resizer/v2/CFALBIYR3XKKBVAIVADL6EVOXI.jpg?auth=ac0ab6e93271b691307993d6ab8eafdc7f35ae2acf34ecfe7da1e6eb8f2193bb&smart=true&width=5500&height=3667" alt="Benedetto Vigna, CEO de Ferrari, fue suplantado usando deepfake. (REUTERS/Flavio Lo Scalzo)" height="3667" width="5500"/><p>A pesar de que los mensajes parecían legítimos a primera vista, había detalles que no cuadraban. Para empezar, los mensajes no procedían del número habitual de Vigna, y <b>aunque la foto de perfil mostraba al CEO con gafas y traje frente al logotipo de Ferrari, no era la que usualmente utilizaba.</b></p><p>Los mensajes continuaron con un tono de urgencia y confidencialidad. “Prepárate para firmar el acuerdo de confidencialidad que nuestro abogado está a punto de enviarte”, indicaba otro mensaje. “El regulador del mercado italiano y la bolsa de Milán ya han sido informados. Mantente alerta y por favor discreción máxima”.</p><p>Para tratar de continuar con el engaño, el estafador explicó que el número no era el habitual del CEO porque el acuerdo era demasiado confidencial y podría haber obstáculos en China. <b>Según la historia, esto podría requerir una operación de cobertura de divisas no especificada.</b></p><p>El siguiente paso del estafador fue aún más audaz. Decidió realizar una llamada telefónica utilizando tecnología de deepfake de voz, que imitaba a la perfección el acento sureño de Vigna.<b> La voz era sorprendentemente convincente, pero el directivo comenzó a sospechar debido a ligeras entonaciones mecánicas en la voz del interlocutor.</b></p><img src="https://www.infobae.com/resizer/v2/W4CTDNOVOFCWBAQ4OX2NNNHI5E.jpg?auth=c8e012b1db3ff9802d90e177faf1679e9f9821b88822ca3309811843c5bff811&smart=true&width=1456&height=816" alt="Gracias a una pregunta sencilla, un directivo evitó un fraude financiero en la empresa italiana. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>El supuesto CEO mencionó que llamaba desde un número diferente porque necesitaba discutir algo confidencial. Habló de un acuerdo que podría enfrentarse a problemas relacionados con China y que requería una transacción de cobertura de divisas.</p><p>A pesar de la calidad del deepfake, el directivo de Ferrari decidió verificar la identidad del supuesto CEO con una pregunta que solo Vigna podría responder. “Disculpa, Benedetto, pero necesito identificarte”, dijo el directivo. <b>Le preguntó cuál era el título del libro que Vigna le había recomendado recientemente. De repente, la llamada se cortó.</b></p><h2>El peligro de los deepfakes</h2><p>Tras este intento de estafa, Ferrari inició una investigación interna. Los representantes de la compañía en Maranello, Italia, se negaron a comentar sobre el incidente. Sin embargo, <b>este evento subraya la creciente sofisticación de las técnicas utilizadas por los ciberdelincuentes y la importancia de estar constantemente alerta.</b></p><img src="https://www.infobae.com/resizer/v2/XYFTNYCPHJHRNCPN4ZYREBJSME.png?auth=6af76d5958d8afbbbb5f1861fc4ba979030739c45105c2e259c1c523e004529f&smart=true&width=1456&height=816" alt="Gracias a una pregunta sencilla, un directivo evitó un fraude financiero en la empresa italiana. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Este no es un caso aislado de uso de deepfakes para cometer fraudes. En mayo, se informó que Mark Read, CEO de WPP Plc, también fue objetivo de una estafa similar en la que se intentó suplantarlo en una llamada de Teams. <b>Aunque el intento fue fallido, demuestra que los ciberdelincuentes están perfeccionando estas técnicas.</b></p><p>No obstante, algunas empresas sí han caído víctimas de estos fraudes. <b>A principios de año, una multinacional no identificada perdió 200 millones de dólares hongkoneses (aproximadamente 26 millones de dólares) después de que estafadores engañaron a sus empleados en Hong Kong utilizando tecnología de deepfake.</b> Los estafadores fabricaron representaciones del director financiero de la empresa y otras personas en una videollamada, y convencieron a la víctima de transferir dinero.</p><p>Empresas como la firma de seguridad informática CyberArk ya están entrenando a sus ejecutivos para detectar cuándo están siendo estafados por bots. La clave es estar alerta a los detalles más sutiles y ser escéptico ante cualquier situación que parezca inusual o demasiado urgente.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/E4JUVBUIWTI3BZSTQXXN66ZMGQ.jpg?auth=b35ec8365cce5e6069d6946ea720d24edcf52fadc2ea892219f30461a5899469&amp;smart=true&amp;width=800&amp;height=540" type="image/jpeg" height="540" width="800"><media:description type="plain"><![CDATA[Gracias a una pregunta sencilla, un directivo evitó un fraude financiero en la empresa italiana. (REUTERS/Flavio Lo Scalzo/File Photo)]]></media:description><media:credit role="author" scheme="urn:ebu">FLAVIO LO SCALZO</media:credit></media:content></item><item><title><![CDATA[Conoce el video de Elon Musk que pone en duda su ética ante la Inteligencia Artificial]]></title><link>https://www.infobae.com/tecno/2024/07/29/conoce-el-video-de-elon-musk-que-pone-en-duda-su-etica-ante-la-inteligencia-artificial/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/07/29/conoce-el-video-de-elon-musk-que-pone-en-duda-su-etica-ante-la-inteligencia-artificial/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[El dueño de X compartió un contenido en el que suplantan la voz de la candidata presidencial en Estados Unidos, Kamala Harris]]></description><pubDate>Mon, 29 Jul 2024 21:02:57 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/YFDPU63JKIXQTD6KWIIXN3743Q.jpg?auth=cbc09297eaadb683ea2363a50c24553c2738458f8e2fe32cde44e2dbb4dd490f&smart=true&width=2185&height=1443" alt="Elon Musk es criticado por un video hecho con IA en el que Kamala Harris habla de su candidatura. (Foto de Jordan Strauss/Invision/AP, Archivo)" height="1443" width="2185"/><p>Una publicación de Elon Musk ha generado controversia al compartir un video manipulado que imita la voz de la vicepresidenta de Estados Unidos, Kamala Harris, en su plataforma de<a href="https://www.infobae.com/tecno/2024/07/28/estos-son-los-celulares-que-no-tendran-whatsapp-a-partir-de-agosto-de-2024/" target="_blank"> redes sociales</a>. La publicación, realizada el viernes 26 de julio por la noche, ha revivido las preocupaciones sobre<a href="https://www.infobae.com/tecno/2024/07/29/cuidado-esto-es-lo-que-nunca-debes-preguntarle-al-nuevo-circulo-azul-de-whatsapp-la-ia-de-meta/" target="_blank"> el poder de la inteligencia artificial para difundir desinformación</a>, especialmente a solo tres meses de las elecciones generales.</p><p>La publicación del video se da en medio del reciente anuncio de Harris como sustituta de Joe Biden en el camino a la Casa Blanca,<b> en el que el dueño de X ya ha hecho público su apoyo a Donald Trump, el candidato republicano.</b></p><h2>Qué muestra el video compartido por Musk</h2><p>El video en cuestión utiliza muchos de los elementos visuales de un anuncio real que Harris, aspirante demócrata a la presidencia, publicó recientemente como parte de su campaña. Sin embargo,<b> el video compartido por Musk cambia la voz en off por otra que suplanta de forma convincente a la vicepresidenta.</b></p><img src="https://www.infobae.com/resizer/v2/CLGWAR26NBCF7B5PGZL77TLP6U.png?auth=f2aac824c8e375dca91f6f4a28f628a76484b2daaa6b2c1a5e8245935aa627ea&smart=true&width=585&height=540" alt="El dueño de X reposteo el video, que está hecho con IA para suplantar la voz de Kamala Harris. (X)" height="540" width="585"/><p>En la grabación, la voz alterada declara: “Yo, Kamala Harris, soy su candidata demócrata a la Presidencia porque Joe Biden finalmente expuso que está senil en el debate”. <b>Además, se afirma que Harris ha sido elegida para cumplir con las cuotas de “diversidad” por ser mujer de ascendencia india y jamaiquina.</b></p><p>El video no solo manipula el audio, sino que también añade algunos clips auténticos de Harris tomados en el pasado, lo que aumenta su apariencia de autenticidad.</p><p>El material fue publicado originalmente por una cuenta de YouTube llamada “Mr Reagan”, etiquetado como parodia. No obstante, <b>cuando Musk compartió la grabación, solo comentó “Esto es asombroso” acompañado de un emoji de risa, sin mencionar que el contenido era falso.</b></p><h2>La polémica tras la publicación</h2><p>La reacción del equipo de campaña de Harris fue inmediata. Mia Ehrenberg, portavoz del equipo de campaña, envió un correo electrónico a The Associated Press en el que expresó su indignación: “Creemos que el pueblo estadounidense quiere la verdadera libertad, oportunidad y seguridad que ofrece la vicepresidenta Harris; no las mentiras falsas y manipuladas de Elon Musk y Donald Trump”.</p><img src="https://www.infobae.com/resizer/v2/7QJLBVCXI44S6GD4MSFRXFDYMI.jpg?auth=122606afee988da6cd3dbe5d48ebb0ac01be881b408234471695972fddc4ae94&smart=true&width=800&height=533" alt="Elon Musk es criticado por un video hecho con IA en el que Kamala Harris habla de su candidatura. (REUTERS)" height="533" width="800"/><p>Hasta este lunes, el video compartido por Musk había sido visto más de 138 millones de veces, según la plataforma X. <b>La falta de una aclaración explícita por parte de Musk sobre la naturaleza manipulada del video ha llevado a muchos a cuestionar si su publicación podría violar las políticas de X.</b></p><p>Estas políticas establecen que los usuarios “no pueden compartir contenido sintético, manipulado o fuera de contexto que pueda engañar o confundir a las personas y causar daño”.</p><h2>El impacto del uso de IA en la publicación de contenido</h2><p>El video es un ejemplo claro de cómo las imágenes, videos o clips de audio generados por inteligencia artificial pueden ser utilizados tanto para burlarse como para engañar en el ámbito político.</p><p>Dos expertos en contenidos multimedia generados por IA revisaron el audio del anuncio falso y <b>confirmaron que gran parte de este se había generado con tecnología de IA.</b></p><img src="https://www.infobae.com/resizer/v2/JI7PZZNCYJCRNJ52OG723XUWXY.jpg?auth=4e152e251cd11c78bfc425982cca3f3dd998ea5532c41dc469aa6fb68f25c149&smart=true&width=4110&height=2740" alt="Elon Musk es criticado por un video hecho con IA en el que Kamala Harris habla de su candidatura. (EFE/EPA/Etienne Laurent)
" height="2740" width="4110"/><p>Hany Farid, experto en análisis forense digital de la Universidad de California, campus Berkeley, comentó a Los Ángeles Times, que “la voz generada por la IA es muy buena. <b>Aunque la mayoría de la gente no creerá que es la voz de la vicepresidenta Harris, el video es mucho más impactante cuando las palabras salen con su voz”.</b></p><p>Farid añadió que las empresas de IA generativa que ponen a disposición del público herramientas de clonación de voz y otras herramientas de IA deberían esforzarse más por garantizar que sus servicios no se utilicen de forma que puedan perjudicar a las personas o a la democracia.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/YFDPU63JKIXQTD6KWIIXN3743Q.jpg?auth=cbc09297eaadb683ea2363a50c24553c2738458f8e2fe32cde44e2dbb4dd490f&amp;smart=true&amp;width=2185&amp;height=1443" type="image/jpeg" height="1443" width="2185"><media:description type="plain"><![CDATA[Archivo - Elon Musk llega a un evento en Los Angeles, el 13 de abril de 2024. El CEO de Tesla anunció el martes 23 de julio de 2024 que los planes de la compañía para construir una planta de autos eléctricos en el norte de México están detenidos. (Foto de Jordan Strauss/Invision/AP, Archivo)]]></media:description><media:credit role="author" scheme="urn:ebu">Jordan Strauss</media:credit></media:content></item><item><title><![CDATA[Qué está pasando con el falso porno en WhatsApp e Instagram: Taylor Swift fue victima]]></title><link>https://www.infobae.com/tecno/2024/07/25/que-esta-pasando-con-el-falso-porno-en-whatsapp-e-instagram-taylor-swift-fue-victima/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/07/25/que-esta-pasando-con-el-falso-porno-en-whatsapp-e-instagram-taylor-swift-fue-victima/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[La empresa no estaría borrando este tipo de contenido a tiempo y ya fue advertida]]></description><pubDate>Thu, 25 Jul 2024 14:48:29 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/64AG4L6VLTHORL22A2IZJBFK3Y.jpg?auth=8b01264bfa310d2490fc9fd4815df482cc701039c1bc74a485106212a7f6d14a&smart=true&width=5500&height=3722" alt="En el informe se le pide a Meta que baje el contenido sin esperar a que se haga viral o llegue a los medios de comunicación. (REUTERS/Mario Anzuoni/File Photo)" height="3722" width="5500"/><p><a href="https://www.infobae.com/tecno/2024/07/23/inteligencia-artificial-de-meta-llega-por-fin-en-espanol-para-whatsapp-instagram-y-facebook/" target="_blank">A Meta </a>le hicieron la petición de actuar con más firmeza frente a los deepfakes no consensuados y las imágenes explícitas <a href="https://www.infobae.com/tecno/2024/07/24/como-desactivar-el-circulo-azul-de-whatsapp-para-no-hablar-con-la-inteligencia-artificial/" target="_blank">generadas por inteligencia artificial</a> en sus plataformas, según un reciente informe de su<b> </b>Junta de Supervisión.</p><p>La investigación, anunciada en abril,<b> cuestiona la respuesta de la compañía ante casos específicos de contenido para adultos deepfake</b>, incluyendo uno que afectó a una figura pública estadounidense y otro a una figura pública india.</p><p><b>El uso de tecnología de IA generativa para crear contenido para adultos deepfake ha aumentado considerablemente en los últimos meses</b>, afectando a figuras conocidas como Taylor Swift, estudiantes de secundaria en EE.UU. y mujeres en todo el mundo.</p><p>Estas herramientas, que son ampliamente accesibles, han facilitado la producción rápida, económica y sencilla de este tipo de imágenes. <b>Y las aplicaciones, como Instagram, Facebook y WhatsApp, han tenido una mayor presión para tomar medidas más efectivas contra este tipo de abuso en línea.</b></p><img src="https://www.infobae.com/resizer/v2/NSXS67D5QGNL75GWPMUAMO4IIQ.jpg?auth=1435493aa07f05d6601b6fe2ea2fc94bf6ff0e3f4208881773e8aa3b7668761d&smart=true&width=7177&height=5005" alt="En el informe se le pide a Meta que baje el contenido sin esperar a que se haga viral o llegue a los medios de comunicación. (REUTERS/Yves Herman/File Photo)" height="5005" width="7177"/><h2>Casos destacados y la respuesta de Meta</h2><p>En el caso de la figura pública estadounidense, Meta actuó de inmediato eliminando la imagen generada por IA que la mostraba desnuda y siendo tocada. <b>Esta acción fue posible porque la imagen había sido añadida previamente a un banco de coincidencia de fotos que detecta automáticamente las imágenes que infringen las normas comunitarias.</b></p><p>No obstante, en el caso de la figura pública india,<b> la empresa no retiró la imagen de Instagram hasta que la Junta de Supervisión intervino</b>, a pesar de que el contenido fue reportado dos veces.</p><p>El informe de la Junta de Supervisión critica la inconsistencia en la aplicación de las normas de Meta contra las imágenes sexuales no consensuadas.</p><p>“Meta determinó que su decisión original de dejar el contenido en Instagram fue un error y la empresa eliminó la publicación por violar el Estándar de la Comunidad contra el Acoso e Intimidación. Posteriormente, tras iniciar nuestras deliberaciones, Meta deshabilitó la cuenta que publicó el contenido”, se menciona en el informe.</p><img src="https://www.infobae.com/resizer/v2/4RHASXXRVP242LWHA25L7HQKY4.jpg?auth=9963e04d0b01f693fc9a4fe978639cbeecbfae51a7ad2aed500cfe75f0da0bd3&smart=true&width=800&height=577" alt="En el informe se le pide a Meta que baje el contenido sin esperar a que se haga viral o llegue a los medios de comunicación. (REUTERS/Dado Ruvic/Ilustración)" height="577" width="800"/><p><b>El reporte también señala problemas continuos en la moderación de contenido por parte de la empresa en países no occidentales o no angloparlantes</b>, un área en la que la compañía ha recibido críticas previamente.</p><h2>La respuesta de Meta y recomendaciones de la Junta</h2><p>Meta, por su parte, acogió la decisión de la Junta. La empresa afirmó que, aunque las publicaciones específicas identificadas en el informe ya fueron eliminadas<b>, tomarán medidas sobre imágenes similares y en el mismo contexto cuando sea técnicamente posible hacerlo.</b></p><p>La Junta de Supervisión, un organismo cuasi-independiente compuesto por expertos en libertad de expresión y derechos humanos,<b> emitió varias recomendaciones adicionales para que la compañía mejore sus esfuerzos en la lucha contra los deepfakes sexualizados.</b></p><p>Instaron a la empresa a aclarar sus reglas actualizando su prohibición contra el “photoshop sexualizado derogatorio” para incluir explícitamente la palabra “no consensuado” y cubrir claramente otras técnicas de manipulación fotográfica, como la IA.</p><img src="https://www.infobae.com/resizer/v2/VXF3JLLIQBCJ3EKNH6Q2SLONUQ.jpg?auth=3ec7a6070e601dbac9a1ee8aed195331bcf52c2caf9c2643c26f90df6c80b24f&smart=true&width=1456&height=816" alt="En el informe se le pide a Meta que baje el contenido sin esperar a que se haga viral o llegue a los medios de comunicación. (imagen ilustrativa infobae)" height="816" width="1456"/><p>Meta explicó a la Junta que no añadió originalmente la imagen de la figura pública india a su banco de coincidencia de fotos que infringen<b> las normas porque no había informes de prensa sobre el tema, a diferencia del caso de la figura estadounidense.</b></p><p>“Esto es preocupante, ya que muchas víctimas de imágenes íntimas deepfake no están en el ojo público y deben aceptar la difusión de sus representaciones no consensuadas o buscar y reportar cada instancia”, afirmó la Junta, <b>sugiriendo que Meta podría considerar otros factores, como si una imagen fue generada por IA, al decidir añadirla al banco.</b></p><p><b>La lucha contra los deepfakes no consensuados es solo una parte de los esfuerzos más amplios de Meta para prevenir la explotación sexual de sus usuarios. </b>La empresa anunció recientemente la eliminación de aproximadamente 63.000 cuentas en Nigeria involucradas en estafas de sextorsión financiera, donde personas, a menudo adolescentes, son engañadas para enviar imágenes desnudas y luego extorsionadas.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/64AG4L6VLTHORL22A2IZJBFK3Y.jpg?auth=8b01264bfa310d2490fc9fd4815df482cc701039c1bc74a485106212a7f6d14a&amp;smart=true&amp;width=5500&amp;height=3722" type="image/jpeg" height="3722" width="5500"><media:description type="plain"><![CDATA[En el informe se le pide a Meta que baje el contenido sin esperar a que se haga viral o llegue a los medios de comunicación. (REUTERS/Mario Anzuoni/File Photo)]]></media:description><media:credit role="author" scheme="urn:ebu">Mario Anzuoni</media:credit></media:content></item><item><title><![CDATA[Tres claves para detectar un video falso hecho con inteligencia artificial ]]></title><link>https://www.infobae.com/tecno/2024/05/23/tres-claves-para-detectar-un-video-falso-hecho-con-inteligencia-artificial/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/05/23/tres-claves-para-detectar-un-video-falso-hecho-con-inteligencia-artificial/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[Los ciberdelincuentes suelen ofrecer premios o dar información falsa para estafar a los usuarios]]></description><pubDate>Thu, 23 May 2024 18:49:39 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/F3SKFHWQGSVYOR3KL2SY3TEXP4.jpg?auth=d6da0ee345c6cc54c3c6ff0d97df3bc3d8128f2458635d5ae270eb8949549b02&smart=true&width=1920&height=1080" alt="Los deepfake normalmente usan caras de famosos o personas familiares para engañar a los usuarios. (REUTERS)" height="1080" width="1920"/><p>La inteligencia artificial ha creado un desafío: <a href="https://www.infobae.com/tecno/2024/03/29/roban-dinero-de-cuentas-bancarias-suplantando-el-rostro-del-cliente-conoce-la-estafa-con-ia/" target="_blank">identificar videos falsos, llamados deepfake.</a> Este tipo de contenido ha sido utilizado para promover notificas falsas, crear estafas y en general, llevar a los usuarios a un sitio web donde entreguen sus datos y dinero sin darse cuenta.</p><p>Debido a eta tecnología, los ciberdelincuentes <a href="https://www.infobae.com/tecno/2024/05/08/openai-ya-tiene-una-herramienta-para-detectar-imagenes-falsas-generadas-con-inteligencia-artificial/" target="_blank">pueden crear un video similar a un noticiero en el que se habla de una situación específica</a> y se engaña a los usuarios. <b>Pero también es posible generar contenidos de familiares o personas famosas dando un mensaje falso. </b>Algo que para mucho usuarios es difícil de identificar. </p><p>Así las cosas, es importante seguir tres recomendaciones para evitar este tipo de trampas y reconocer cuando un video es falso o no.</p><img src="https://www.infobae.com/resizer/v2/QDELSZB5TBEP7G52E5XZZP5PRA.jpg?auth=fb8343ffb159045d0c823ba17e790fb2e426626f61bc59f5f900e0558d4c95a3&smart=true&width=1456&height=816" alt="Los deepfake normalmente usan caras de famosos o personas familiares para engañar a los usuarios. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><h2>Buscar inconsistencias en la imagen y el audio</h2><p>El primer truco para detectar un deepfake es prestar atención a las inconsistencias en la imagen y el audio del video. Los <b>videos falsos generados por IA a menudo presentan fallas en el doblaje, sombras aleatorias y desalineaciones en partes de la cara, como los ojos o la boca.</b> Estos son signos claros de manipulación.</p><p>Observa si los movimientos faciales o corporales parecen poco naturales. Los deepfakes pueden tener dificultades para replicar de manera precisa los movimientos sutiles del rostro humano. Por ejemplo, <b>los parpadeos pueden ser demasiado rápidos o lentos, y las expresiones faciales pueden no coincidir con las emociones que se espera ver en un contexto específico.</b></p><p>Los deepfakes a menudo presentan una calidad de video que no coincide con el estándar de los videos auténticos. Pueden verse borrosos o tener artefactos visuales alrededor de las áreas editadas.</p><h2>Verifica la información y la fuente del video</h2><p><b>El segundo truco es comprobar la verosimilitud del contenido y verificar las fuentes. </b>Para esto es fundamenta buscar la fuente oficial y asegurarse de que la información coincida con otras fuentes confiables.</p><img src="https://www.infobae.com/resizer/v2/7WT6DLQNGJDRTCRZEPRJ2TAEPE.jpg?auth=6a853eed63cdb749d7ff2ed30e78f8dff4caabeeb76ebdf412bfa4499d0217c8&smart=true&width=1456&height=816" alt="Los deepfake normalmente usan caras de famosos o personas familiares para engañar a los usuarios. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Compara el contenido del video con información disponible en fuentes fiables. <b>Si un video presenta información que parece demasiado buena para ser cierta, es probable que sea sospechoso. </b>Por ejemplo, si un video muestra a una celebridad promoviendo un producto milagroso o una inversión que garantiza ganancias enormes en poco tiempo, investiga si la misma información está disponible en sitios web o medios de comunicación respetables.</p><p>Considera el contexto en el que se presenta el video. Los deepfakes a menudo sacan información fuera de contexto para hacer que el contenido parezca más convincente. <b>Verifica si el video encaja con los eventos o noticias actuales y si otras fuentes reportan lo mismo.</b></p><h2>Desconfía de solicitudes de descarga o pago</h2><p>El tercer truco es estar alerta ante videos o audios que solicitan descargar aplicaciones o realizar pagos. Los deepfakes de figuras públicas ya se han utilizado para promover estafas de robo financiero, por lo que es crucial ser cauteloso.</p><img src="https://www.infobae.com/resizer/v2/65GH3OJZDZHNLNZFTEEFQNRIWU.jpg?auth=65da09046d1abb1116d8b8cee9d56f7a641281aa04b6a0e2525be341160e9a01&smart=true&width=1792&height=1024" alt="Los deepfake normalmente usan caras de famosos o personas familiares para engañar a los usuarios. (Imagen Ilustrativa Infobae)" height="1024" width="1792"/><p>Si un video o audio te pide descargar una aplicación o realizar una inversión, desconfía de inmediato. <b>Los delincuentes a menudo utilizan deepfakes para hacerse pasar por figuras de autoridad o celebridades para ganar la confianza de las víctimas y persuadirlas de realizar acciones que les beneficien financieramente.</b></p><p>Sé escéptico ante promociones que parecen demasiado buenas para ser verdad. Las estafas suelen atraer a las víctimas con ofertas de productos exclusivos, inversiones garantizadas o aplicaciones que prometen beneficios extraordinarios. <b>Verifica estas ofertas en fuentes oficiales antes de tomar cualquier acción.</b></p><p>Mantente informado sobre las tecnologías deepfake y cómo se utilizan para manipular contenido. Cuanto más consciente seas de las señales de advertencia y <b>las tácticas utilizadas por los estafadores, mejor preparado estarás para detectar posibles fraudes.</b></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/F3SKFHWQGSVYOR3KL2SY3TEXP4.jpg?auth=d6da0ee345c6cc54c3c6ff0d97df3bc3d8128f2458635d5ae270eb8949549b02&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:description type="plain"><![CDATA[Los deepfake normalmente usan caras de famosos o personas familiares para engañar a los usuarios. (REUTERS)]]></media:description><media:credit role="author" scheme="urn:ebu">REUTERS TV</media:credit></media:content></item><item><title><![CDATA[¿Engañado por la IA? Estas empresas venden detección de deepfake “REAL al 100%”]]></title><link>https://www.infobae.com/wapo/2024/05/18/enganado-por-la-ia-estas-empresas-venden-deteccion-de-deepfake-real-al-100/</link><guid isPermaLink="true">https://www.infobae.com/wapo/2024/05/18/enganado-por-la-ia-estas-empresas-venden-deteccion-de-deepfake-real-al-100/</guid><dc:creator><![CDATA[Nitasha Tiku, Tatum Hunter]]></dc:creator><description><![CDATA[Grandes promesas y crítica a la tecnología emergente son el núcleo de la controversia que rodea a varias startups de detección de deepfakes, mientras expertos cuestionan la fiabilidad de sus herramientas en un ámbito en rápida evolución dentro del mundo digital]]></description><pubDate>Sat, 18 May 2024 16:29:59 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/MQA3Z5JPXBD7RPEPS55WSXCPP4.jpg?auth=1d92e753e5b9c7e628a1defb22ec02f1913d1c07782ed029409c5e42a7ed7f47&smart=true&width=1456&height=816" alt="Deep Media asegura poseer una alta precisión en la detección de deepfakes con sus avanzadas herramientas de IA (Imagen ilustrativa Infobae)" height="816" width="1456"/><p>En un mundo desesperado por no dejarse engañar por la <b>inteligencia artificial</b>, <b>Deep Media</b> es una estrella emergente. Esta empresa de la zona de la <b>Bahía de San Francisco</b>, que afirma ser capaz de identificar imágenes, audio y vídeo creados por inteligencia artificial con una precisión del <b>99%</b>, ha conseguido al menos cinco contratos militares por valor de casi <b>USD</b> <b>2 millones</b> desde finales de <b>2022</b>, incluido un acuerdo de <b>USD 1,25 millones </b>para desarrollar un detector personalizado que ayude a las <b>Fuerzas Aéreas</b> a contrarrestar la guerra de <b>información rusa y china</b>. <b>El mes pasado</b>, su <b>CEO</b>, <b>Rijul Gupta</b>, testificó ante un subcomité del <b>Senado</b> sobre la amenaza que suponen los <b>“deepfakes” de IA</b> para las <b>elecciones estadounidenses</b>.</p><p>Pero a pesar de la creciente prominencia de <b>Deep Media</b>, el único ingeniero de aprendizaje automático de la empresa se graduó en la <b>universidad</b> hace dos años, con una licenciatura en <b>astrofísica</b>, según su perfil de <b>LinkedIn</b>. Mientras tanto, una revisión de los perfiles de <b>LinkedIn</b> de otros empleados sugiere que la empresa no tiene <b>doctorados</b>, especialistas en <b>IA</b> o científicos forenses en el personal - una falta de experiencia en la materia que, según los expertos, sugiere una desconexión de la comunidad de investigación <b>deepfake</b> en rápido movimiento. <b>Gupta está “esencialmente diciendo: ‘Confía en mí’. Y eso no funciona en ciencia”</b>, afirma <b>Wael Abd-Almageed</b>, profesor de la <b>Universidad de Clemson</b> que estudia las falsificaciones profundas.</p><p>Sea cual sea su buena fe, <b>Deep Media</b> forma parte de un creciente segmento de empresas emergentes que se presentan como un baluarte contra la avalancha de contenidos falsos que ha surgido junto a nuevas herramientas de inteligencia artificial fáciles de usar. El temor a que los <b>medios sintéticos</b> perturben las elecciones y amenacen la seguridad nacional ha llevado a instituciones como el <b>Congreso</b>, el <b>ejército</b> y los <b>medios de comunicación</b> a buscar desesperadamente una solución técnica fiable para identificar los contenidos falsos. <b>La semana pasada</b>, el fabricante de <b>ChatGPT OpenAI</b> anunció que está desarrollando su propia herramienta de detección.</p><p>Pero aunque la detección es un servicio cada vez más crucial y solicitado, sus capacidades están en gran medida por probar. Los métodos utilizados para crear deepfakes evolucionan constantemente, lo que significa que las herramientas de detección creadas en un laboratorio no siempre funcionan en la naturaleza, afirman académicos e investigadores. Una prueba realizada en <b>abril</b> por el <b>Instituto Reuters para el Estudio del Periodismo</b> con varios detectores de <b>deepfakes</b> gratuitos o de bajo coste y de acceso público reveló que la mayoría podían ser engañados por las mismas técnicas que se suponía que debían detectar.</p><p>No obstante, unas <b>40 empresas jóvenes</b> ofrecen ahora servicios de detección de falsificaciones, y algunas de ellas afirman alcanzar niveles de precisión sorprendentes: <b>Originality.ai</b> promete “un <b>99% de </b>PRECISIÓN EN LA DETECCIÓN DE CONTENIDO DE IA”. <b>AI Voice Detector</b> afirma que su herramienta puede “<b>garantizar la autenticidad en situaciones importantes</b>”, incluidos los casos judiciales. <b>GPTZero</b> dice que “<b>supera de forma convincente a todos los servicios de detección de IA de la competencia</b>”. Y para demostrar su destreza, <b>Kroop AI</b> muestra dos caras de dibujos animados aparentemente idénticas en su sitio web, una etiquetada como “REAL <b>100%</b>” y la otra como “FALSO <b>100%</b>”.</p><img src="https://www.infobae.com/resizer/v2/AJF4DRCW4JD3BMHDVIUJCYHWWM.jpg?auth=a3c29fe392d25c54012e8e96e4d591ec41a9b9f70c0c55b0394d2e682159c804&smart=true&width=1456&height=816" alt="Contratos millonarios del Pentágono impulsan a Deep Media, avalando su tecnología en detección de deepfakes (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>La <b>CEO de Kroop AI, Jyoti Joshi</b>, dijo que las caricaturas están destinadas a ilustrar cómo los <b>deepfakes de alta calidad</b> pueden parecer sorprendentemente realistas, y agregó que la herramienta de su compañía sobresale en la detección de “<b>firmas sutiles</b>” dejadas por la <b>IA generativa</b>. Otras compañías dijeron que sus resultados de detección no deben leerse como la última palabra, con el <b>CEO de AI Voice Detector, Abdellah Azzouzi</b>, diciendo que su compañía alienta a los usuarios a “investigar más ... después de obtener los resultados.”</p><p>Y aunque <b>Originality.ai</b> afirma tener una precisión del <b>99%</b>, su <b>director ejecutivo, Jon Gillham</b>, escribió en una declaración a <b>The Post</b> que tales afirmaciones “<b>no deben creerse</b>” a menos que estén respaldadas por los resultados de las pruebas. Señalando una entrada del blog de la empresa, <b>Gillham</b> dijo que su compañía revela los resultados de su detector en <b>cinco conjuntos de datos</b> de terceros, así como los resultados de las pruebas de otros detectores.</p><p>Según la firma de<b> análisis PitchBook</b>, los capitalistas de riesgo invirtieron <b>USD 200 millones</b> en empresas emergentes de deepfake a nivel mundial en 2023 y el primer trimestre de 2024, frente a los 6,6 millones de 2017. Estas cifras abarcan tanto a las empresas de creación de deepfakes como a las de detección, pero algunos de los mayores acuerdos fueron para herramientas de identificación de medios manipulados por IA. Aun así, el gasto en detección de deepfakes es insignificante en comparación con los <b>USD</b> <b>29.000 millones</b> invertidos en acuerdos de IA generativa el año pasado, según PitchBook, incluida la financiación de herramientas populares de las que se puede abusar para crear imágenes engañosas, clonar voces o editar vídeos.</p><p>Con las guerras que asolan <b>Ucrania</b> y <b>Gaza</b> y más de <b>4.000 millones de personas</b> con derecho a voto en las elecciones de este año, los expertos forenses afirman que la oleada de nuevas empresas de detección, <b>sobre todo las que presumen de una precisión casi perfecta</b>, corre el riesgo de echar gasolina al creciente fuego de la <b>IA</b> al proporcionar una falsa sensación de certeza sobre la legitimidad de algunos contenidos visuales y sonoros, erosionando al mismo tiempo la confianza del público en los medios de comunicación auténticos.</p><p><b>Los riesgos potenciales para la seguridad derivados de etiquetar un contenido como “falso” son cada vez mayores.</b> En <b>octubre</b>, el sitio de noticias tecnológicas <b>404 Media</b> informó de que la herramienta gratuita <b>AI or Not</b> marcó como falsa una imagen que, según el <b>gobierno israelí</b>, mostraba atrocidades cometidas por <b>Hamás</b>, en contra de la opinión de los expertos.</p><p>El <b>director ejecutivo de AI or Not, Anatoly Kvitnitsky</b>, declaró que, de unas cuantas docenas de imágenes relacionadas con el atentado de <b>Hamás</b>, “<b>acertamos en todas menos en esta</b>”. <b>AI or Not</b> ha mejorado desde entonces su herramienta, dijo <b>Kvitnitsky</b>, pero reconoció que el error era preocupante. “De hecho, nací en Ucrania y soy judío”, dijo, “así que me afectó que nos equivocáramos en algunas cosas”.</p><img src="https://www.infobae.com/resizer/v2/7WT6DLQNGJDRTCRZEPRJ2TAEPE.jpg?auth=6a853eed63cdb749d7ff2ed30e78f8dff4caabeeb76ebdf412bfa4499d0217c8&smart=true&width=1456&height=816" alt="Las aplicaciones DubSync y PolyTalk, desarrolladas por Deep Media, buscan innovar en la creación de contenidos generados por IA - (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p><b>Deep Media</b> también ha encontrado pruebas de manipulación de la <b>IA</b> donde otros no lo han hecho. El mes pasado, Gupta declaró a The Washington Post que la herramienta de su empresa había detectado<b> una “alta probabilidad” de que un vídeo muy analizado de Catalina, Princesa de Gales, </b>anunciando su diagnóstico de cáncer, hubiera sido manipulado con IA.</p><p>Expertos como <b>Abd-Almageed, de Clemson, Claire Wardle, investigadora de desinformación de la Universidad de Brown, y Hao Li, </b>director ejecutivo de la empresa de efectos de vídeo de IA Pinscreen, afirmaron que no encontraron pruebas de que el vídeo, grabado por la BBC en marzo, hubiera sido manipulado con IA.</p><p>En una entrevista más reciente, <b>Gupta declaró a The Post</b> que la empresa mantiene su análisis. Gupta también defendió el nivel de experiencia de la empresa en IA. Gupta, licenciado en ingeniería bioquímica por la Universidad de Yale, dijo que él personalmente tiene 15 años de experiencia en aprendizaje automático, desde que tenía 15 años. Añadió que <b>Deep Media</b> emplea a contratistas experimentados, incluidas personas que están realizando su <b>doctorado</b>, pero se negó a nombrarlos.</p><p>“La IA es una tecnología en rápida evolución que requiere modelos de detección de falsificaciones profundas para mantenerse al día con los malos actores”, dijo Gupta en un comunicado, señalando que Deep Media ha entrenado y probado numerosos modelos de detección. “La detección de deepfake es un problema muy difícil”, dijo Gupta en la entrevista, “y Deep Media está trabajando incansablemente para seguir avanzando en nuestra tecnología.”</p><h2>¿Puedo confiar o no?</h2><p>El forense <b>Hany Farid</b>, profesor de la <b>Universidad de California en Berkeley</b>, declaró a <b>The Post</b> que este mes ha hablado con cuatro desarrolladores diferentes que presumen de índices de detección casi perfectos. Pero afirma que las empresas de nueva creación pueden aumentar sus cifras calificándose a sí mismas según una curva: A menudo entrenan modelos de detección con un conjunto concreto de deepfakes y luego evalúan su capacidad para identificar el mismo tipo de falsificaciones.</p><p><b>En el mundo real, los medios engañosos pueden no mostrar los patrones que la IA ha aprendido a detectar</b>, dijo <b>Farid</b>, añadiendo que un enfoque más fiable requiere una combinación ágil de programación informática, física, inteligencia de código abierto y análisis forense.</p><p>La start-up de detección de <b>Farid</b>, <b>Get Real Labs</b>, utiliza el aprendizaje automático, pero también analiza elementos como las sombras, la geometría, los ajustes de compresión y los resultados de las búsquedas inversas de imágenes. Con el tiempo, la empresa podría alcanzar la precisión necesaria para resumir sus resultados en una “respuesta final” para los clientes, pero la ciencia aún no está ahí. <b>“Si empiezas a decir: ‘Podemos decir con gran precisión si algo es real o falso’, y te equivocas, formas parte del problema”, afirma Farid.</b> “De hecho, podría decirse que eres peor que la enfermedad”.</p><img src="https://www.infobae.com/resizer/v2/34WIZMOTWRFHXHKACSDWTI4UCU.jpg?auth=1748111fd078ca5e5ebbd8dde8188c6a84341e23cb6a0a6b559e76900013109c&smart=true&width=1792&height=1024" alt="Expertos del Pentágono y el Departamento de Defensa destacan el rápido avance tecnológico en la lucha contra los deepfakes - (Imagen Ilustrativa Infobae)" height="1024" width="1792"/><p><b>Esta brecha entre los resultados de laboratorio y los del mundo real dificulta la evaluación de los detectores de la competencia</b>, afirma Abd-Almageed. Y hace que la oleada de empresarios que se dedican a la detección de falsificaciones profundas como un sector emergente de moda, similar a las criptomonedas o la propia IA, sea especialmente preocupante, dijo Farid.</p><p>Aunque las afirmaciones jactanciosas de las empresas emergentes no son nada nuevo en <b>Silicon Valley</b>, <b>Raquel Vázquez Llorente</b>, responsable de amenazas y oportunidades tecnológicas de la organización sin ánimo de lucro <b>Witness</b>, dijo que conclusiones sobre contenidos como “<b>generado en un 80% por IA</b>” pueden confundir al público. <b>“¿Qué demonios significa eso?”, dijo en una reciente conferencia sobre IA generativa y derecho. “¿Puedo fiarme o no?”</b></p><p>Dado que la detección de deepfakes es especialmente urgente en un año electoral, <b>Oren Etzioni</b>, cofundador del <b>Allen Institute for AI</b>, fundó recientemente la organización sin ánimo de lucro <b>TrueMedia.org</b>, dedicada a desarrollar una herramienta de detección fiable que ofrece gratuitamente a los fact-checkers.</p><p><b>El Pentágono</b> también se está moviendo más rápido para seguir el ritmo de los avances tecnológicos. Se ha hecho más acogedor para las nuevas empresas tecnológicas modernizando su proceso de adquisición y relajando las restricciones de elegibilidad para su fondo de desarrollo <b>Small Business Innovation Research (SBIR)</b>. Conocido como <b>SBIR</b>, este programa de tres fases financia ideas prometedoras, desarrolla la tecnología y, por último, la pone en producción. La mayoría de las empresas de nueva creación nunca llegan a la tercera fase.</p><p>Los cinco contratos militares de Deep Media que cotizan en bolsa eran subvenciones SBIR. Tres han finalizado y un cuarto termina en julio, mientras que el acuerdo de <b>USD 1,25 millones</b> con las <b>Fuerzas Aéreas</b> para la detección de <b>IA</b> -ahora en la fase dos del <b>SBIR</b>- finaliza en noviembre. En un comunicado, el portavoz del <b>Pentágono Jeff Jurgensen</b> dijo que el <b>Departamento de Defensa</b> evalúa cada propuesta <b>SBIR</b> “<b>teniendo en cuenta factores tales como el mérito técnico, los requisitos de defensa, y el potencial comercial</b>”, en busca de pequeñas empresas que podrían atraer a los inversores privados, que tienen acceso a más capital.</p><h2>99% de precisión</h2><p>Antes de centrarse en la detección de deepfakes, <b>Deep Media</b> se dedicaba a crear medios sintéticos. La empresa lanzó lo que denominó un traductor universal para doblar vídeos y puso en marcha una serie de aplicaciones de creación de contenidos, como <b>Babble, Copy Cat ai, DubSync</b> y <b>PolyTalk</b>. <b>Dos de los contratos militares más pequeños de la empresa fueron para servicios de traducción de IA. </b>“La razón por la que nuestros detectores de deepfake funcionan -la razón por la que tenemos contratos con el Pentágono- es porque hemos sido pioneros en el lado generativo durante mucho tiempo”, dijo Gupta a The Post.</p><p>En anteriores entrevistas de prensa, <b>Gupta</b> había afirmado que su índice de precisión en la identificación de deepfakes era del <b>99%</b>. En su entrevista con <b>The Post</b>, modificó un poco esa afirmación y dijo que <b>s</b>e compromete a ofrecer a los clientes al menos un 95 por ciento de precisión, incluso en “los últimos y mejores deepfakes, los de mayor calidad y los más difíciles de detectar”.</p><img src="https://www.infobae.com/resizer/v2/6NAZ2JCMZNFAVA2SQYGAGMTMEE.jpg?auth=f1ed748b17eb377c54896d60dd4543c15b579c3a5f09da80e88a277a36ac09f0&smart=true&width=1456&height=816" alt="Gupta afirma que la experiencia en IA de Deep Media es clave para sus contratos con el Laboratorio de Investigación de las Fuerzas Aéreas -  (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Gupta dijo que intenta evitar cifras engañosas, reconociendo que “la gente puede engañarte cuando habla de precisión”<b>. Si 10 imágenes de un universo de 1.000 son falsas, el modelo puede declarar que todo es real y tener una precisión del 99%</b>, dijo. Pero en realidad, dijo, “ese número no tiene sentido, ¿verdad?”.</p><p>Al hablar con <b>The Post</b>, <b>Gupta</b> citó repetidamente un acuerdo de investigación cooperativa de <b>USD 25 millones</b> y tres años de duración para la generación y detección de datos deepfake con el <b>Laboratorio de Investigación de las Fuerzas Aéreas</b> como prueba de la credibilidad de la empresa. Una copia del contrato revisada por <b>The Post</b> muestra que el <b>60 por ciento del valor de USD 25 millones proviene de recursos proporcionados por Deep Media</b>.</p><p>El acuerdo se había presentado anteriormente como un contrato de <b>USD 25 millones</b>, pero <b>Gupta</b> reconoció que “<b>puede que se haya tergiversado</b>” en la prensa. El acuerdo no proporciona “<b>ingresos a la empresa</b>”, dijo, “<b>pero está apoyando nuestra investigación en IA</b>”.</p><p>Mientras tanto,<b> </b>la empresa de asesoría que ayudó a Deep Media a obtener sus contratos militares ha demandado a la empresa por impago de sus facturas. La demanda, presentada en marzo ante un tribunal federal por Stonegardens Advisory, también alega que Deep Media afirmó falsamente que el miembro gerente de Stonegardens, un veterano de la Infantería de Marina, era un ejecutivo de Deep Media en su sitio web y en materiales de marketing, así como en el escenario de SXSW y en eventos de la Fuerza Aérea. Stonegardens declinó hacer comentarios sobre el caso.</p><p><b>Gupta declinó referirse a las alegaciones de la demanda</b>. Dijo a <b>The Post</b> que <b>Deep Media</b> empezó a solicitar contratos militares porque teme que los medios sintéticos manipuladores puedan desestabilizar la sociedad estadounidense. “Si nuestro gobierno no tiene un detector de deepfakes”, dijo Gupta, “nuestro gobierno no sabe lo que es real y lo que es falso”.</p><p><br/></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/DSIQMEMKDZHEFO2WPF4QUPQOJY.jpg?auth=64fcb03f55c413e7596cb445997c15b2b4aefb400aeb055d3844063331a6e480&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[La controversia sobre la fiabilidad de las herramientas de detección de deepfakes pone en duda las promesas de las startups tecnológicas - (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Google sancionará las páginas que tengan contenido falso para adultos como ‘deepfake’]]></title><link>https://www.infobae.com/tecno/2024/05/18/google-sancionara-las-paginas-que-tengan-contenido-falso-para-adultos-como-deepfake/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/05/18/google-sancionara-las-paginas-que-tengan-contenido-falso-para-adultos-como-deepfake/</guid><dc:creator><![CDATA[Isabela Durán San Juan]]></dc:creator><description><![CDATA[La compañía vetará las páginas que ofrecen  instrucciones sobre cómo crear este tipo de imágenes o videos]]></description><pubDate>Sat, 18 May 2024 14:54:19 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/MEEUKKAZXJF2NI5FDIZRWRUEDY.jpg?auth=df4df0fcca2200c00c27f6745034abce0841b9ee669772a8449e763b1255bda4&smart=true&width=1920&height=1080" alt="Google está actualizando su política de contenido inapropiado. (Imagen ilustrativa Infobae)" height="1080" width="1920"/><p>Google actualizará su política de contenido inapropiado para <a href="https://www.infobae.com/tecno/2024/03/27/google-elimino-mas-de-5500-millones-de-anuncios-enganosos-ia-y-los-deepfakes-en-la-mira/" target="_blank">Google Ads</a> ya que prohibirá la promoción de contenido sintético que se haya modificado o generado con IA y que sea sexualmente explícito o incluya desnudos.</p><p><b>La medida está destinada a sitios o aplicaciones que afirman generar contenido para adultos ultrafalso, </b>que ofrecen instrucciones sobre cómo crearlo, que recomiendan o comparan servicios de esta clase. </p><p>“<b>Si detectamos infracciones de esta política, suspenderemos tus cuentas de </b><a href="https://www.infobae.com/tecno/2024/01/29/google-ads-como-crear-imagenes-de-publicidad-con-inteligencia-artificial/" target="_blank"><b>Google Ads</b></a><b> sin previo aviso y no podrás volver a anunciarte con nosotros</b>”, sentenció la compañía. Cabe mencionar que la actualización de esta política entrará en vigor el 30 de mayo del 2024.</p><img src="https://www.infobae.com/resizer/v2/UNLRHRSAURESPMGZKNFJ7GKMXQ.png?auth=34ff9c8a30d1049edbfddb6bdc60aa368e271760c009649bda60d760c0ad4216&smart=true&width=908&height=435" alt="La actualización de las políticas de Google Ads será a finales de mayo. (Ayuda de la política de Google Ads)" height="435" width="908"/><h2>¿Qué es contenido ultrafalso o ‘deepfake’?</h2><p>El contenido ultrafalso o ‘deepfake’ se refiere a medios audiovisuales manipulados mediante técnicas avanzadas de inteligencia artificial. Utiliza algoritmos de aprendizaje profundo, como redes neuronales, para superponer rostros e imitar voces de manera realista. <b>Esta tecnología permite crear videos y audios en los que parece que una persona dice o hace algo que en realidad nunca ocurrió.</b></p><p>Algunos ejemplos comunes son: </p><p>- Videos que muestran a políticos o figuras públicas haciendo declaraciones que nunca hicieron.</p><p>- Contenidos sexuales falsos creados a partir de imágenes de personas que no han consentido su uso.</p><p>- Audios manipulados para hacer pasar a alguien por una persona que no es, usualmente para estafas o engaños.</p><img src="https://www.infobae.com/resizer/v2/CRW3CSSWSFHPBKQG3AASSXYVFQ.jpg?auth=d91d3ab02400e524263ddb48c95e0753744c0a51ef838c66f3d9209d46913128&smart=true&width=1920&height=1080" alt="Los deepfakes hacen referencia a contenido generado con IA a partir de imágenes reales sin autorización de los autores. (Imagen Ilustrativa Infobae)" height="1080" width="1920"/><h2>¿Cuál es el contenido inapropiado de Google Ads?</h2><p>Google Ads, una de las plataformas publicitarias más grandes del mundo, tiene políticas estrictas sobre el contenido inapropiado para asegurar una experiencia segura y positiva para los usuarios. </p><p>Algunas diferentes formas de contenido inapropiado de acuerdo con las políticas de Google son: </p><p><b>Contenido que incite al odio y a la discriminación</b></p><p><b>Google Ads prohíbe cualquier contenido que incite al odio o promueva la discriminación contra una persona o un grupo. </b>Esto incluye la discriminación por raza, origen étnico, religión, discapacidad, edad, nacionalidad, condición de veterano, orientación sexual, sexo, identidad de género u otras características asociadas con la discriminación o la marginación sistémicas.</p><img src="https://www.infobae.com/resizer/v2/RXP7I42LYH53S4DB63FSA537YQ.jpg?auth=b3c71f0ad20574043abbf582acd3f85a87bf3c306c91ff9ed756a2186f720ba0&smart=true&width=6000&height=4000" alt="Google cuenta con un listo de contenido inapropiado para Google Ads, entre esos material a favor del maltrato animal. REUTERS/Steve Marcus/File Photo/File Photo" height="4000" width="6000"/><p>Ejemplos:</p><p>- Promoción de grupos que incitan al odio.</p><p>- Productos relacionados con grupos que incitan al odio.</p><p>- Contenido que deshumaniza a una persona o grupo, considerándolos inferiores o merecedores de odio.</p><p><b>Contenido de hostigamiento y acoso</b></p><p>Esto integra textos que insulten o acosen a alguien. <b>También se prohíbe compartir información personal con el objetivo de causar daño a través de fraude financiero</b>, robo de identidad, contacto directo perjudicial o acoso. Algunos ejemplos son: </p><p>- Insultos dirigidos a una persona o grupo.</p><p>- Negación de eventos trágicos.</p><p>- Divulgación de información personal con malas intenciones.</p><img src="https://www.infobae.com/resizer/v2/5DASFJKA7RH2BIRTHZT6UAVH7A.jpg?auth=d9782ec18920a0b12439857b8c6aaf31bae1e71f75b473ee3545f2b968321ba0&smart=true&width=1324&height=745" alt="Contenido relacionado con abuso infantil es calificado como inapropiado. (Imagen Ilustrativa Infobae)" height="745" width="1324"/><p><b>Contenido de amenazas y autolesiones</b></p><p>Hace referencia al contenido que defienda el suicidio, la anorexia u otras formas de autolesión, y contenido que haga amenazas de daño físico o incite a la violencia. </p><p><b>Contenido de explotación y abuso</b></p><p>Cualquier contenido cuyo propósito sea aprovecharse de otras personas está prohibido. Esto incluye la extorsión y el chantaje. Sitios web que solicitan dinero para no publicar información personal también hacen parte de esta categoría.</p><p><b>Contenido sexual explícito</b></p><p>Google Ads no permite ningún tipo de contenido sexual explícito que tenga la intención de provocar excitación. Esto incluye texto, imágenes, audio o video de actos sexuales. <b>Además, se prohíbe el contenido que promueva actos sexuales no consentidos</b>, con menores de edad o cualquier otro tema sexual ilegal, independientemente de si es simulado o real.</p><img src="https://www.infobae.com/resizer/v2/6T37YUUUHVHYJGMQAD7XD46YB4.jpg?auth=637832a53caf5489a203445283ad870d370ee02e6c54fc88cf40e4d1d878ce53&smart=true&width=1920&height=1080" alt="Si Google detecta contenido inapropiado puede restringir al usuario de volver a usar sus productos. (Imagen ilustrativa Infobae)" height="1080" width="1920"/><p><b>Explotación sexual de menores</b></p><p>Google tiene una política de tolerancia cero en cuanto a contenido que promueva la explotación sexual de menores. Esto incluye imágenes u otro contenido que muestre abuso sexual infantil.</p><p><b>Crueldad contra animales</b></p><p>No está permitido el contenido que promueva la crueldad o violencia gratuita contra animales. <b>Google Ads prohíbe el comercio de especies amenazadas o en peligro de extinción</b> y la venta de productos derivados de estas especies.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/MEEUKKAZXJF2NI5FDIZRWRUEDY.jpg?auth=df4df0fcca2200c00c27f6745034abce0841b9ee669772a8449e763b1255bda4&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:description type="plain"><![CDATA[Google está actualizando su política de contenido inapropiado. (Imagen ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[OpenAI ya tiene una herramienta para detectar imágenes falsas generadas con inteligencia artificial]]></title><link>https://www.infobae.com/tecno/2024/05/08/openai-ya-tiene-una-herramienta-para-detectar-imagenes-falsas-generadas-con-inteligencia-artificial/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/05/08/openai-ya-tiene-una-herramienta-para-detectar-imagenes-falsas-generadas-con-inteligencia-artificial/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[Según la empresa, esta función tiene una precisión del 98,8% al momento de confirmar que una imagen es un deepfake]]></description><pubDate>Wed, 08 May 2024 13:10:08 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/VU3SZXT2WZGSTFNPDYFPXEGFNE.png?auth=f9243a579caeef101494d806a4279b556c64a258316bad00847d9f30dcd8c4e4&smart=true&width=1200&height=700" alt="Tanto las imágenes del inexistente arresto del expresidente del Trump, así como las Papa con un abrigo blanco o las de Macron en una protesta, son ejemplos de deepfakes creados con Inteligencia Artificial." height="700" width="1200"/><p>Los deepfakes son una realidad. Recientemente, <a href="https://www.infobae.com/tecno/2024/05/07/met-gala-2024-crean-imagenes-falsas-con-ia-de-rihanna-katy-perry-y-mas-deepfakes/" target="_blank">vimos como se crearon imágenes de Katty Perry y Rihanna en la Met Gala</a>, a pesar de que ninguna de ellas fue. Contenidos de este tipo causan mucha confusión dentro los usuarios y como solución OpenAI creó una herramienta para detectar este tipo de imágenes generadas con inteligencia artificial.</p><p><b>Esta iniciativa surge en un momento crítico, marcado por la creciente amenaza de los deepfakes y la desinformación en línea.</b> Con el aumento de la capacidad de las IA generativas para crear contenido cada vez más realista y persuasivo, se hace evidente la necesidad de contar con herramientas efectivas para identificar y verificar la autenticidad de dicho contenido.</p><p>Algo que se hace más crítico cuando se trata de contenido que puede engañar a los usuarios, para llevarlos a entregar dinero, persuadir su intención de voto o <a href="https://www.infobae.com/tecno/2024/01/25/taylor-swift-y-sus-imagenes-pornograficas-la-convierten-en-la-nueva-victima-de-la-inteligencia-artificial/" target="_blank">dar información de forma errónea sobre un tema específico</a>, teniendo en cuenta el poder de una imagen.</p><img src="https://www.infobae.com/resizer/v2/EXH6C52GJBACDFPFC7DVDGBUEQ.png?auth=aa01ba5639505076c743d46fd181898f712f46207244ddae610f3d1dc09d23d6&smart=true&width=669&height=594" alt="La empresa usará los metadatos de las imágenes para detectar alteraciones y ediciones. (OpenAI)" height="594" width="669"/><h2>Cómo es la herramienta de OpenAI</h2><p>La nueva herramienta de OpenAI se basa en un clasificador avanzado capaz de identificar imágenes creadas por su popular generador de imágenes, DALL-E. </p><p><b>Este clasificador ha sido sometido a rigurosas pruebas que han demostrado una precisión del 98,8% en la identificación de imágenes generadas por esta inteligencia artificial. </b>Este nivel de precisión es un punto significativo en la lucha contra la desinformación en línea y los intentos de manipulación a través de imágenes sintéticas.</p><p>El funcionamiento de la herramienta se basa en el uso de algoritmos de inteligencia artificial para analizar las características únicas de las imágenes y <b>determinar si han sido generadas por DALL-E o no</b>. Además, la herramienta es capaz de detectar modificaciones menores en las imágenes, como compresión, recortes o cambios en la saturación, lo que la hace aún más robusta frente a intentos de engaño.</p><p>Sin embargo, es importante tener en cuenta que la herramienta no es infalible. Aunque puede identificar con precisión las imágenes generadas por DALL-E, su eficacia en la detección de contenido generado por otras IA generativas es limitada, marcando entre un 5 % y un 10 % en su conjunto de datos interno. <b>Por lo que no es compatible con plataformas como Midjourney o Stability.</b></p><img src="https://www.infobae.com/resizer/v2/JO2Z6RAXLVGJTO4ID54OICLL2Q.png?auth=70c036135ceab99022ad467cf7fd1bf5a70480a5a8c6caff6693f38868bb89fc&smart=true&width=1200&height=700" alt="La empresa usará los metadatos de las imágenes para detectar alteraciones y ediciones. (OpenAI)" height="700" width="1200"/><p>OpenAI ha adoptado un enfoque integral para abordar el problema de la autenticidad del contenido digital. Además del desarrollo de esta herramienta de detección de imágenes, la compañía se ha unido al Comité Directivo de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA). Esta coalición se centra en establecer estándares abiertos para certificar la autenticidad del contenido digital y compartir información sobre cómo fue creado.</p><p>La integración de metadatos del estándar C2PA en todas las imágenes creadas y editadas por DALL-E 3, el último modelo de imagen de OpenAI, es un paso crucial hacia la garantía de la autenticidad del contenido digital. <b>Estos metadatos proporcionan información sobre la procedencia y autenticidad de las imágenes, lo que ayuda a construir confianza en su veracidad.</b></p><p>Además de contribuir a los estándares de autenticidad del contenido, OpenAI está desarrollando nuevas herramientas para mejorar la integridad del contenido digital. Esto incluye la implementación de marcas de agua resistentes a la manipulación en contenido como audio, <b>así como clasificadores de detección que utilizan inteligencia artificial para evaluar la probabilidad de que el contenido provenga de modelos generativos.</b></p><img src="https://www.infobae.com/resizer/v2/5UULBBNGLNGH3KQZIFHMIOXM2Q.jpg?auth=1ed2f43c0126d170859dde7d3505a801276fd5992eb56612013283406c554dfb&smart=true&width=1456&height=816" alt="malla virtual, 3d, código, programación, usos de la inteligencia artificial, aprendizaje mediante la innovación -  (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>La disponibilidad de estas herramientas es un paso adelante significativo en la lucha contra la desinformación en línea y la manipulación de contenido digital. <b>OpenAI ha anunciado que está abriendo aplicaciones para acceder a su clasificador de detección de imágenes a un grupo selecto de probadores</b>, incluidos laboratorios de investigación y organizaciones sin fines de lucro de periodismo, a través de su Programa de Acceso para Investigadores. </p><p>Esta medida permitirá una evaluación independiente de la efectividad de la herramienta y su aplicación en el mundo real.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/VU3SZXT2WZGSTFNPDYFPXEGFNE.png?auth=f9243a579caeef101494d806a4279b556c64a258316bad00847d9f30dcd8c4e4&amp;smart=true&amp;width=1200&amp;height=700" type="image/png" height="700" width="1200"><media:description type="plain"><![CDATA[Tanto las imágenes del inexistente arresto del expresidente del Trump, así como las Papa con un abrigo blanco o las de Macron en una protesta, son ejemplos de deepfakes creados con Inteligencia Artificial.]]></media:description></media:content></item><item><title><![CDATA[Estafan a usuarios de la criptomoneda XRP con un deepfake: no caigas en la trampa ]]></title><link>https://www.infobae.com/tecno/2024/05/07/estafan-a-usuarios-de-la-criptomoneda-xrp-con-un-deepfake-no-caigas-en-la-trampa/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/05/07/estafan-a-usuarios-de-la-criptomoneda-xrp-con-un-deepfake-no-caigas-en-la-trampa/</guid><dc:creator><![CDATA[Isabela Durán San Juan]]></dc:creator><description><![CDATA[En el video, se le prometía a los usuarios que iban a recibir el doble de sus ganancias si accedían a un sitio web]]></description><pubDate>Tue, 07 May 2024 19:18:56 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/QPMUG2TRAVC2BF6CIRQQ56OGSY.png?auth=4efc5e9307f3657e16f0b7402444098fe547772cd655583c000335f12dcee858&smart=true&width=1456&height=816" alt="Los usuarios comentaron el suceso en un foro de Reddit. (Imagen ilustrativa Infobae)" height="816" width="1456"/><p>Usuarios de Reddit han encontrado un video falso creado con inteligencia artificial de Brad Garlinghouse director ejecutivo de Ripple, plataforma de pagos con criptomonedas. En el deepfake, el ejecutivo parece pedir a las personas que tienen XRP, una criptomoneda, que manden sus monedas virtuales a una dirección web determinada. A cambio, promete devolverles el doble de lo enviado.</p><p><b>El</b><a href="https://infobae.com/tecno/2024/01/24/conoce-que-es-un-deepfake-sexual-la-nueva-forma-de-acosar-sexualmente-en-internet/" target="_blank"><b> video falso </b></a><b>de Garlinghouse se ha distinguido claramente por su falta de autenticidad, debido a anomalías en el movimiento de los labios</b> <b>y un tono de voz que suena robótico</b>, no coincidiendo con las características humanas naturales.</p><p>Estos aspectos han levantado sospechas inmediatas entre los observadores, señalando su naturaleza de deepfake. <b>Asimismo, la compañía Ripple no ha emitido comunicados ni publicaciones que respalden o se refieran a este supuesto evento de promociones</b>, reforzando la percepción de que el video es, de hecho, una creación falsa con <a href="https://www.infobae.com/tecno/2024/03/23/alerta-por-estafas-en-whatsapp-para-robar-criptomonedas-como-identificarlas-y-protegerse/" target="_blank">intenciones fraudulentas</a>.</p><img src="https://www.infobae.com/resizer/v2/INBMB7MYRBD2DEG5VOCHBI5MVU.png?auth=cb3ceac709ada728c88a72f353dcc51b4bb83a4f00a688a712d1655b8a9250ed&smart=true&width=1259&height=880" alt="En el video, se le prometía a los usuarios doblar su inversión. (Captura YouTube)" height="880" width="1259"/><h2>Deepfakes en el mundo de las criptomonedas</h2><p>Los deepfakes son videos o audios manipulados con técnicas de inteligencia artificial y aprendizaje automático para hacer parecer que personas reales están diciendo o haciendo cosas que nunca dijeron o hicieron.</p><p>Normalmente, <b>sus víctimas son personas reconocidas cuya popularidad puede llegar a convencer a algunas personas a realizar cierta actividad, que en la mayoría de casos, es perjudicial.</b></p><p>En este caso, usaron la imagen de una persona que cuenta con credibilidad para convencer a los espectadores a pasar sus criptomonedas a cierta dirección específica y posiblemente, caer en una estafa. <b>Por ese motivo, Infobae no comparte el video, únicamente una captura de pantalla del mismo.</b></p><img src="https://www.infobae.com/resizer/v2/P3W3KP3V4RBY7F4JFEFCPLYI6U.jpg?auth=4feea3b1da2cf4c79b6393afad05df2a49492e67b5f146f884f5ad50d5f91159&smart=true&width=1456&height=816" alt="Los deepfakes son creados con inteligencia artificial con el fin de imitar al máximo la apariencia y conducta natural de la persona. (Imagen Ilustrativa Infobae)" height="816" width="1456"/><h2>¿Cómo identificar deepfakes?</h2><p>Para identificar deepfakes, se pueden considerar varios indicadores que sugieren manipulación:</p><ul><li><b>Inconsistencias en el rostro:</b> Buscar distorsiones o anomalías en los rasgos faciales, como ojos que no parpadean de manera natural, bordes de rostros que parecen borrosos o mal alineados con el cuello y el cabello.</li><li><b>Movimiento labial:</b> Observar si el movimiento de los labios está sincronizado adecuadamente con el audio. Los deepfakes a menudo presentan desajustes entre el sonido y el movimiento.</li><li><b>Calidad de voz:</b> Escuchar cambios o irregularidades en la tonalidad de la voz, como un tono que pueda sonar robótico o una modulación que no concuerde con la expresión facial.</li><li><b>Fondo y iluminación:</b> Evaluar si el fondo o la iluminación del video parecen inconsistentes o artificiales, lo que puede indicar una manipulación.</li><li><b>Expresiones y movimientos anormales:</b> Prestar atención a expresiones faciales exageradas o movimientos corporales que parezcan poco naturales o forzados.</li><li><b>Información contextual:</b> Verificar fuentes confiables para corroborar la veracidad del contenido. La ausencia de otras fuentes que validen la información puede ser un indicativo de falsedad.</li></ul><p>Estar alerta a estos signos puede ayudar a discernir entre contenido auténtico y manipulado, aunque la tecnología de deepfakes continúa avanzando, haciendo que la detección sea cada vez más desafiante.</p><img src="https://www.infobae.com/resizer/v2/LQGPI75BZVEQNKVBIAK7UOUYXQ.jpg?auth=a541b1ad58bb573b1ecdfb1a7ddb2edc34447622fc55227bc0dc8f5d8a34af96&smart=true&width=1792&height=1024" alt="Las estafas con criptomonedas son comunes dado que las personas no terminan de comprender cómo funcionan sus transacciones. (Imagen Ilustrativa Infobae)" height="1024" width="1792"/><h2>¿Cómo identificar estafas relacionadas con criptomonedas?</h2><p>Para identificar estafas relacionadas con criptomonedas, es crucial estar atento a ciertas señales de alerta:</p><ul><li><b>Promesas de ganancias garantizadas:</b> Desconfía de cualquier oferta que prometa retornos altos y sin riesgo. Las inversiones en criptomonedas, por naturaleza, conllevan riesgos y no pueden garantizar ganancias.</li><li><b>Presión para invertir rápidamente:</b> Las estafas frecuentemente crean un sentido de urgencia, insistiendo en que actúes rápido para no perder la oportunidad.</li><li><b>Solicitudes de pago anticipado:</b> Cualquier solicitud de enviar dinero o criptomonedas para “desbloquear” o “reclamar” ganancias más significativas suele ser una señal clara de estafa.</li><li><b>Direcciones de billetera desconocidas:</b> Si se solicita enviar fondos a una billetera sin verificar su legitimidad o procedencia, es probable que sea una estafa.</li><li><b>Uso de redes sociales y foros para verificar información:</b> Las estafas a menudo tienen muchas quejas de usuarios afectados en foros y redes sociales. Buscar comentarios y experiencias de otros puede ser útil.</li></ul><p>Ante la duda, es mejor abstenerse de realizar la inversión. La investigación y la precaución son fundamentales para evitar caer en estafas relacionadas con criptomonedas.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/QPMUG2TRAVC2BF6CIRQQ56OGSY.png?auth=4efc5e9307f3657e16f0b7402444098fe547772cd655583c000335f12dcee858&amp;smart=true&amp;width=1456&amp;height=816" type="image/png" height="816" width="1456"><media:description type="plain"><![CDATA[Los usuarios comentaron el suceso en un foro de Reddit. (Imagen ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Met Gala 2024: Crean imágenes falsas con IA de Rihanna, Katy Perry y más deepfakes]]></title><link>https://www.infobae.com/tecno/2024/05/07/met-gala-2024-crean-imagenes-falsas-con-ia-de-rihanna-katy-perry-y-mas-deepfakes/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2024/05/07/met-gala-2024-crean-imagenes-falsas-con-ia-de-rihanna-katy-perry-y-mas-deepfakes/</guid><dc:creator><![CDATA[Juan Ríos]]></dc:creator><description><![CDATA[En redes sociales se hicieron virales contenidos falsos de artistas que no fueron al evento]]></description><pubDate>Tue, 07 May 2024 12:48:15 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/YZ3BXY7NWZD3DJOIUB2633Q6EQ.png?auth=aef6ceea9a463fe3cc30e65baad1ddd63af8a5bb602288e53e83b2e493305a11&smart=true&width=1200&height=700" alt="Con Inteligencia artificial, crearon contenidos falsos de artistas en la Met Gala. Todos son deepfakes. (X)" height="700" width="1200"/><p>Además de los tradicionales estilos extravagantes, la Met Gala de este año ha llamado la atención por una serie de <a href="https://www.infobae.com/tecno/2024/04/28/enganan-a-los-fans-de-taylor-swift-drake-y-mas-artistas-con-canciones-creadas-con-ia/" target="_blank">contenidos generados con inteligencia artificial de artistas</a> que no asistieron al evento. En las imágenes falsas se replicó cada detalle de este evento de la moda, replicando todo el ambiente de la gala y la temática para esta edición.</p><p><b>Katy Perry, Rihanna y Dua Lipa fueron las protagonistas de este contenido deepfake.</b> A pesar de no haber estado en la gala, <a href="https://www.infobae.com/tecno/2024/01/25/taylor-swift-y-sus-imagenes-pornograficas-la-convierten-en-la-nueva-victima-de-la-inteligencia-artificial/" target="_blank">la inteligencia artificial permitió verlas como si lo hubiesen estado</a>, incluso con el caos de los fotógrafos que cada año hace parte del entorno caótico del evento.</p><p><b>Ante la calidad de las imágenes, en redes sociales muchos usuarios las han confundido y creen que son reales</b>, demostrando una vez más el poder de esta tecnología y los desafíos que hay para frenar el contenido falso.</p><h2>Katy Perry, Rihanna y Dua Lipa en la Met Gala IA</h2><p>Una de las imágenes más destacadas es la de Katy Perry, quien, según la IA,<b> habría lucido un espectacular vestido perla adornado con flores tridimensionales en la Met Gala. </b>A pesar de la incredulidad inicial, la imagen se volvió viral, acumulando más de 10 millones de visualizaciones y desatando un frenesí de comentarios en las redes sociales.</p><img src="https://www.infobae.com/resizer/v2/6YUH45GH55CTZGL2CEBL4Z3USQ.jpg?auth=2fb242f960ecd827ecb644e63bf0288f8f9c963e1992918fac7841af95925a91&smart=true&width=1004&height=994" alt="Con Inteligencia artificial, crearon contenidos falsos de artistas en la Met Gala. Todos son deepfakes. (X)" height="994" width="1004"/><p><b>Perry misma tuvo que desmentir la veracidad de la foto, explicando que no pudo asistir al evento debido a compromisos profesionales. </b>Sin embargo, la imagen generada por IA desafió las expectativas y demostró el potencial de la tecnología para crear realidades alternativas en el mundo de la moda.</p><p>Otro ejemplo es el de Rihanna, cuya imagen generada por IA la muestra luciendo un vestido boscoso con una silueta circular, inspirado en la temática de la Met Gala de ese año, “El Jardín del Tiempo”.</p><p>A pesar de la ausencia de la artista en el evento debido a motivos de salud, <b>la imagen falsa logró captar la atención del público y generar más de 96,000 likes y 17,000 retweets en X. </b>Este ejemplo ilustra cómo las creaciones de IA pueden desafiar las expectativas de la audiencia y generar un impacto significativo en la cultura digital.</p><img src="https://www.infobae.com/resizer/v2/KZZYOXI2OZEVVPJ4NWBXO5CMBE.jpg?auth=8f65dcbf1bfa36500b3447216046164a12e7f45829fde1d24f314d56a9511ef4&smart=true&width=1125&height=1406" alt="Con Inteligencia artificial, crearon contenidos falsos de artistas en la Met Gala. Todos son deepfakes. (X)" height="1406" width="1125"/><p>Además de Perry y Rihanna, otras celebridades también fueron objeto de la creatividad de la IA. <b>Dua Lipa, por ejemplo, fue retratada con un estilo que incluía flequillo y un moño, junto con un vestido encorsetado.</b> Aunque estas imágenes parecían más realistas que otras, la llegada de Lipa a la Met Gala con un atuendo completamente diferente demostró que el contenido no era real.</p><h2>Cómo la IA logra replicar la realidad de esta manera</h2><p>Detrás de estas creaciones de IA se encuentra una combinación de algoritmos y tecnología avanzada que permite generar imágenes realistas a partir de datos y patrones existentes. <b>Estos algoritmos analizan una variedad de imágenes de las celebridades en cuestión, así como detalles específicos sobre sus estilos y preferencias de moda.</b></p><p>Luego, utilizan esta información para crear representaciones digitales que se asemejan a la realidad, pero que también pueden incluir elementos fantásticos y creativos.</p><img src="https://www.infobae.com/resizer/v2/I62MBUNL7PE6GLEEXZNTPUM62Q.jpg?auth=0676c0a6018c434d2b110a500da0c5be949027c3a4f23a26fb06b2508c768f9b&smart=true&width=7791&height=5327" alt="Imagen real de Dua Lipa en la Met Gala 2024, muy diferente a la que generado con IA que se hizo viral en redes sociales. (REUTERS)" height="5327" width="7791"/><p>Si bien estas imágenes generadas por IA han causado entusiasmo y fascinación entre el público, también han planteado preocupaciones sobre la autenticidad y la manipulación digital,<b> como ya ha sido el caso de canciones o videos en los que hay famosos involucrados.</b></p><p>La difusión masiva de estas imágenes falsas ha llevado a muchos a cuestionar la confiabilidad de lo que ven en línea y a reflexionar sobre los límites éticos de la tecnología. Además, el impacto de estas creaciones en la percepción de la belleza y la moda plantea interrogantes sobre los estándares culturales y la influencia de la tecnología en la construcción de la identidad visual.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/YZ3BXY7NWZD3DJOIUB2633Q6EQ.png?auth=aef6ceea9a463fe3cc30e65baad1ddd63af8a5bb602288e53e83b2e493305a11&amp;smart=true&amp;width=1200&amp;height=700" type="image/png" height="700" width="1200"><media:description type="plain"><![CDATA[Con Inteligencia artificial, crearon contenidos falsos de artistas en la Met Gala. Todos son deepfakes. (X)]]></media:description></media:content></item></channel></rss>