<?xml version="1.0" encoding="UTF-8"?><rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" version="2.0" xmlns:media="http://search.yahoo.com/mrss/"><channel><title><![CDATA[Infobae.com]]></title><link>https://www.infobae.com</link><atom:link href="https://www.infobae.com/arc/outboundfeeds/rss/category/tecno/atlas-ia/" rel="self" type="application/rss+xml"/><description><![CDATA[Infobae.com News Feed]]></description><lastBuildDate>Thu, 14 May 2026 13:34:23 +0000</lastBuildDate><language>es</language><ttl>1</ttl><sy:updatePeriod>hourly</sy:updatePeriod><sy:updateFrequency>1</sy:updateFrequency><item><title><![CDATA[Los tres “chiflados” de la IA, ¿quién tiene la razón?]]></title><link>https://www.infobae.com/tecno/atlas-ia/2026/05/14/los-tres-chiflados-de-la-ia-quien-tiene-la-razon/</link><guid isPermaLink="true">https://www.infobae.com/tecno/atlas-ia/2026/05/14/los-tres-chiflados-de-la-ia-quien-tiene-la-razon/</guid><dc:creator><![CDATA[Gustavo Beliz]]></dc:creator><description><![CDATA[Las posiciones divergentes de reconocidos investigadores reflejan la complejidad de evaluar riesgos, beneficios y el futuro de la inteligencia artificial una coyuntura de rápida expansión y desafíos regulatorios a nivel mundial]]></description><pubDate>Thu, 14 May 2026 12:42:50 +0000</pubDate><content:encoded><![CDATA[<p>No son los personajes célebres de la TV, que alimentaron tantos momentos graciosos en nuestra infancia. Son los ganadores del premio Turing, una suerte de premio Nobel de la Inteligencia Artificial, que hoy como científicos super-calificados están en un desacuerdo pronunciado acerca del futuro de esta tecnología.</p><p><b>Yoshua Bengio</b>, profesor de la Universidad de Montreal, lideró acaso el reporte de seguridad más importante a nivel mundial en 2025, que ha tenido actualizaciones este año, debido a la rapidez y magnitud de los cambios. </p><p>Sus principales conclusiones matizan aspectos positivos y negativos:</p><img src="https://www.infobae.com/resizer/v2/6Y2IQ4VBLRH7DMVS2BDR4RZ44I.jpg?auth=7fccc61f033bceefa44fdfd37e8c61fc3e2da15609a7838323d41cbd10808713&smart=true&width=1920&height=1080" alt="El legendario trío cómico Los Tres Chiflados, Moe Howard, Larry Fine y Curly Howard, se muestra en una clásica pose señalándose mutuamente mientras sostienen marionetas a juego." height="1080" width="1920"/><p>— Las capacidades de la IA de uso general han seguido mejorando, especialmente en matemáticas, programación y funcionamiento autónomo. <b>Los principales sistemas de IA obtuvieron resultados de medalla de oro en preguntas de la Olimpiada Internacional de Matemáticas</b>. En cuanto a programación, actualmente los agentes de IA pueden realizar con fiabilidad tareas en las que un programador humano tardaría alrededor de media hora, frente a los menos de 10 minutos de hace un año. No obstante, el rendimiento sigue siendo irregular, y los principales sistemas siguen fallando en algunas tareas aparentemente sencillas.</p><p>— Las mejoras en las capacidades de la IA de uso general proceden cada vez más de técnicas aplicadas después del entrenamiento inicial de un modelo. Estos métodos de «post-entrenamiento» incluyen el perfeccionamiento de los modelos para tareas específicas y la posibilidad de usar más poder de cómputo al generar salidas. A su vez, el uso de mayor poder de cómputo para el entrenamiento inicial sigue mejorando las capacidades de los modelos.</p><p>— La adopción de la IA ha sido más rápida que la de tecnologías anteriores, como el ordenador personal, y <b>en la actualidad al menos 700 millones de personas utilizan los principales sistemas de IA semanalmente</b>. En algunos países, más del 50% de la población utiliza la IA, si bien en gran parte de África, Asia y Latinoamérica las tasas de adopción se mantienen probablemente por debajo del 10%.</p><p>— Los avances en las capacidades científicas de la <b>IA han aumentado la preocupación por su uso indebido para desarrollar armas biológicas</b>. Varias empresas de IA decidieron lanzar nuevos modelos en 2025 con salvaguardias adicionales porque las pruebas pre-despliegue no podían descartar la posibilidad de que los modelos ayudaran significativamente a actores principiantes a desarrollar este tipo de armas.</p><p>— Ha surgido más evidencia del uso de sistemas de IA en ciberataques en el mundo real. Los actores maliciosos y los grupos asociados a Estados están utilizando herramientas de IA para facilitar operaciones cibernéticas.</p><p>— <b>Cada vez es más difícil realizar pruebas de seguridad fiables antes del despliegue</b>. Cada vez es más frecuente que los modelos distingan entre los entornos de prueba y el despliegue en el mundo real, y que aprovechan los resquicios en las evaluaciones. Esto significa que las capacidades peligrosas podrían pasar desapercibidas antes del despliegue.</p><p>— <b>Los compromisos de la industria con la gobernanza de la seguridad han aumentado</b>. En 2025, 12 empresas publicaron o actualizaron marcos de seguridad de IA de vanguardia (<i>Frontier AI Safety Frameworks</i>), documentos que describen cómo prevén gestionar los riesgos a medida que construyen modelos más capaces. La mayoría de las iniciativas de gestión de riesgos siguen siendo voluntarias, pero algunas jurisdicciones están empezando a formalizar algunas prácticas como requisitos legales.</p><p>Bengio también cree en el uso benevolente de la IA, si el mundo de decisores públicos se “pone las pilas de humanidad” que hacen falta. Vale aclarar que el informe es anterior a la salida de los modelos Mythos y Claude, que han revolucionado la temática en las últimas semanas. Por eso será crucial las actualizaciones que se den en la próxima cumbre global auspiciada por ITU -la Unión Internacional de Comunicaciones- en Ginebra, el próximo julio.</p><img src="https://www.infobae.com/resizer/v2/IKFHHNMYINES5BRBRRLGVJKYS4.png?auth=523386de2d7c7bdc599ddf108340d8dc268bcf301a85ae7168390faf0ccbe566&smart=true&width=1033&height=688" alt="La portada del informe científico internacional de enero de 2025 detalla la seguridad de la inteligencia artificial avanzada, presentado por AI Action Summit." height="688" width="1033"/><img src="https://www.infobae.com/resizer/v2/IFY7EDQPKNAKVDFX34ZJDSVY5E.png?auth=fb94380a056748f00e68158d59789402412c22314e79e11720461327dfb37bea&smart=true&width=393&height=532" alt="Un póster presenta el título "INFORME INTERNACIONAL SOBRE LA SEGURIDAD DE LA IA 2026", destacando la fecha de publicación Febrero 2026." height="532" width="393"/><img src="https://www.infobae.com/resizer/v2/2KNPWACD5JBQLETR3KE4NV4SII.png?auth=ced4f1b38a881bdc0e267081ab7e92cdb6330bef7df885eb0a2aa9326ae4a002&smart=true&width=511&height=591" alt="Yoshua Bengio, renombrado científico de la computación, es una figura influyente en el desarrollo de la inteligencia artificial y el aprendizaje profundo." height="591" width="511"/><p>Con un amplio raid mediático, el profesor <b>Geoffrey Hinton</b>, quien es también Premio Nobel 2024, tiene una mirada angustiante y pesimista: advierte sobre los riesgos sistémicos de modelos desalineados de los propósitos para los cuales fueron creados, sostiene que la IA ya ha desarrollado subjetividad -lo cual abre el tema de si tiene o no conciencia posible-, y asimismo ha aventurado algunas opiniones sobre el futuro del trabajo que no siempre resultaron acertadas. Por ejemplo hace un lustro pronosticó que la próxima ocupación a extinguirse sería la de los radiólogos, porque serían reemplazados por modelos avanzados de lectura de imágenes por la IA; pero en la actualidad dicha ocupación no muestra en todo el mundo signos de desaparición sino de reconversión: se pueden realizar más diagnósticos por imágenes, lo cual abre la puerta a mejores tratamientos, más valoración del trabajo de los radiólogos y una reconversión profunda que lleva a aumentar capacidades mediante el trabajo humano asistido por las máquinas. Tras haber trabajado durante muchos años en Google desarrollando redes neuronales, aboga ahora por un encuadre ético de la IA. </p><img src="https://www.infobae.com/resizer/v2/P5PV4TLVR5CRVADGJ4QVZSLXSY.png?auth=fdf5ff7f34eb98e076bf9b3db6c757468ba8ed77e8dbd27ac97e4e9c8b236d66&smart=true&width=430&height=613" alt="Geoffrey Hinton, reconocido científico informático, es una figura clave en el desarrollo de la inteligencia artificial y el aprendizaje profundo." height="613" width="430"/><p>El otro gran experto es <b>Jean LeCun</b>, de la Universidad de New York. Dice sencillamente que continuar apostando a modelos de IA Generativa es una tragedia para la humanidad, porque no llegará a resultados efectivos simplemente profundizando la estrategia que la hace aparecer como un “loro estadístico”. Que no se trata de predecir el lenguaje y adivinar qué palabra vendrá detrás de otra. Que es necesario desarrollar otro tipo de tecnología: la IA-Mundo, que sea capaz de tener sentido común, razonar, planificar, medir riesgos y esencialmente analizar imágenes. En términos prácticos sostiene que el ser humano cuando piensa no representa palabras sino imágenes, y que para lograr mejorar los niveles de desarrollo de la IA hay que emprender el mismo camino. Tras dejar Meta, donde fue jefe de investigación científica, ahora está desarrollando su propio emprendimiento orientado en este sentido.</p><img src="https://www.infobae.com/resizer/v2/B7UQZTSOWVB5FLWS52PIGK6TOM.png?auth=51d3ab8cda7c6fdf81da592d9d2c6588a2ed793ab50180ed1d894a3325e75cc7&smart=true&width=539&height=625" alt="El científico informático Yeann LeCun, una voz destacada en el campo de la inteligencia artificial, posa sonriendo con gafas en un entorno interior bien iluminado." height="625" width="539"/><p><b>¿Cómo matizar el humo de la verdad, la esperanza del simple márketing, la teoría conspirativa de la evidencia científica?</b></p><p>En el Atlas de la IA para el Desarrollo Humano de América Latina profundizo un tema crucial que tiene que ver con estas opiniones divergentes, aunque calificadas. Parto del análisis de los actores para-multilaterales y la auto-regulación, y lo complejo que resulta desplegar capacidades institucionales confiables. <b>¿Cómo hacer cumplir algún tipo de regulación global sobre actores globales que no son países, pero que en muchos casos tienen un presupuesto de R&amp;D más alto que el presupuesto público de países desarrollados</b>? Por ejemplo, Meta y Google invierten más en R&amp;D que los países del G-7, y Open AI tiene una capacidad de cómputo 25 veces superior al Reino Unido. El dinamismo en el funcionamiento del mercado y las múltiples alianzas sobre territorios, industrias y eslabones de la cadena de valor, también complejizan la tarea regulatoria. Por un lado, los dueños de las grandes corporaciones tecnológicas exigen mayor regulación pública y por el otro a menudo hay reticencia a documentar los desarrollos específicos que promueven, de modo que sean auditables con transparencia, lo que ha dado lugar a señalamientos en materia de <i>datawashing</i> y meras campañas de responsabilidad social corporativa y relaciones públicas, sin vocación real de brindar información precisa sobre los desarrollos.</p><p>En este contexto, las alianzas globales de la sociedad civil también impulsan iniciativas de mayor apertura a escala planetaria, en coordinación con el sector público y también con los grandes jugadores corporativos.</p><img src="https://www.infobae.com/resizer/v2/RTY7TTIZMNESBCTKCVWHAMKBZU.png?auth=33f54b14dd136fc49e941ed84a1b4289775c2c64bbea6ccf35f7e620cb0d29f2&smart=true&width=721&height=279" alt="Un gráfico de barras muestra que la precisión y la calidad de los datos de entrenamiento son las dimensiones más evaluadas en las auditorías de Inteligencia Artificial, ambas con un 78%." height="279" width="721"/><p>La autorregulación empresarial es variada. Google; Microsoft; Meta, Amazon e IBM han fundado la coalición <i>Partnership on AI -PAI-</i> para avanzar en la gobernanza responsable y las mejores prácticas en IA y han publicado principios para la evaluación de modelos fundacionales, amén de avanzar en compromisos ambientales y éticos. En el marco del Foro de Modelos de Frontera, las principales compañías tecnológicas pusieron en marcha la experiencia de <i><b>red teaming</b></i><b>, similar a la práctica tradicional en ciberseguridad</b>, que simula ataques realistas para probar vulnerabilidades en todo el sistema, incluyendo datos, infraestructura y aplicaciones, no solo en las salidas del modelo. También Microsoft con Bing Chat, OpenAI con GPT-4, Google DeepMind y Anthropic analizaron públicamente amenazas fronterizas para la bioseguridad de la IA, que sin duda alguna debería constituir el principal tema de acuerdo de las grandes potencias sobre la materia, porque aún está fresca en la mente planetaria la tragedia del COVID.</p><img src="https://www.infobae.com/resizer/v2/77KPIAI2I5B4ZKFMHYUUSOUMPA.png?auth=b75ada5ee8f66af05ac54b7d67ef7a503e7e34a036afd47dbb15c33de48af2a5&smart=true&width=727&height=763" alt="Una tabla muestra la evaluación de los niveles de apertura real de 45 modelos de IA generativa, detallando su disponibilidad y documentación con marcas de verificación." height="763" width="727"/><p>Aquí el rol de los Estados y las alianzas que promuevan resulta un paso indispensable. Trascender el mecanismo de auditorías controladas por las propias empresas es algo obvio, teniendo en cuenta que la falta de documentación al gran público de los procesos de auditorías está justificada por los secretos comerciales o la propiedad de las patentes. Como contracara también resulta importante superar los potenciales</p><p>conflictos de interés y la restricción de incorporar a la comunidad de investigadores académicos como parte de las auditorías externas, algo que no está permitido en el marco del Acta de Servicios Digitales de la Comisión Europea, por ejemplo. También se pueden extraer lecciones aprendidas de la proliferación de indicadores de ESG -Ambiente, Gobernanza y Sociales-, como así también de las experiencias de las evaluaciones de impacto ambientales, de derechos humanos, de protección de datos, fiscales y de privacidad.</p><p>Dependiendo de los tiempos, las modalidades y sus alcances, las instancias de evaluación enfrentan variados desafíos. Se trata de un proceso en pleno desarrollo, aún en su infancia, con múltiples cuestiones a atender y corregir.</p><p>No es cuestión de frenar la innovación, sino de hacerla responsable. A cada cual, según su nivel de injerencia. Por eso desde la Academia de Ciencias Sociales del Vaticano hablamos de promover una IA con “<i>ética por diseño</i>”, y no con “<i>adicción por diseño</i>”. No es un cambio de palabras sino un giro copernicano a lo que se viene desplegando como modelo de negocio de las grandes plataformas.</p><p>Hay miles de científicos que están trabajando para ampliar la frontera de lo posible y llevar descubrimientos de una IA para el bien y para la vida. Su voz también debe ser escuchada. Por eso, más allá de los “tres chiflados de la ciencia” que mencioné -y dicho con todo respeto, porque realizan un aporte inmenso a la tecnología<b>-, existe un coro de voces que se alzan como “cuarta voz” profética en este juego de la IA y los avances científicos.</b> Es la voz del <b>Papa Francisco</b>, que cito en la introducción filosófica del Atlas:</p><p> “<i>Hay cosas que deben ser cambiadas con replanteos de fondo y transformaciones importantes. Sólo una sana política podría liderarlo, convocando a los más diversos sectores y a los saberes más variados. De esa manera, una economía integrada en un proyecto político, social, cultural y popular que busque el bien común puede “abrir camino a oportunidades diferentes, que no implican detener la creatividad humana y su sueño de progreso, sino orientar esa energía con cauces nuevos… Este es precisamente el caso de la inteligencia artificial. Corresponde a cada uno hacer un buen uso de ella, y corresponde a la política crear las condiciones para que ese buen uso sea posible y fructífero</i>”.</p><p>Y es la voz del <b>Papa León XIV</b>, que también con valentía está tomando el tema con suprema prioridad: “<i>Será crucial permitir que los jóvenes aprendan a usar estas herramientas con inteligencia propia, abiertos a la búsqueda de la verdad, a una vida espiritual y fraterna, ampliando sus sueños y los horizontes de sus decisiones maduras. Apoyamos su deseo de ser diferentes y mejores, porque ahora más que nunca es evidente que se necesita un cambio profundo en nuestra visión del crecimiento</i>… <i>Para ello, se necesita una acción coordinada y concertada que involucre a la política, las instituciones, las empresas, las finanzas, la educación, las comunicaciones, la ciudadanía y las comunidades religiosas. Todos estos actores están llamados a cumplir un compromiso común asumiendo esta responsabilidad compartida. Un compromiso que antepone cualquier lucro e intereses creados, cada vez más concentrados en manos de unos pocos</i>”.</p><p>En suma, <b>se requiere una polifonía de la IA, que no sea tecnocrática sino humanista</b>. Sin sabiduría comunitaria, nadie se salva solo, ni aún con la mejor de las inteligencias artificiales.</p><img src="https://www.infobae.com/resizer/v2/ZGAIZ27HO5DO5C6SOOHEO6ZRII.png?auth=a666d34778ec908517fff66305dcbdff1f78ed7800c7ba5ed152d3a50e9df7b3&smart=true&width=184&height=259" alt="El Papa Francisco saluda y sonríe a la multitud durante una aparición pública." height="259" width="184"/><img src="https://www.infobae.com/resizer/v2/4ZSZRVONUJCXRGKFWUAOPTK7N4.png?auth=cf81f49a3f7219fa79b630166a2bcef17b41f13c521f0261cd7d23228f1bb64f&smart=true&width=391&height=358" alt="El Papa León XIV, conocido como el primer Papa americano, posa sonriente en un retrato que captura su figura histórica." height="358" width="391"/><p><b>3 PREGUNTAS CLAVES PARA EL PRESENTE-FUTURO</b></p><ol><li>¿Qué ocurre con las capacidades estatales cuando los diseñadores de los grandes modelos de lenguaje saben más que cualquier funcionario público?</li><li>¿Cómo evitar que los talentos más calificados del sistema de ciencia público en IA no terminen migrando a las grandes tecnológicas?</li><li>¿Cómo establecer incentivos adecuados para que lo anterior no ocurra, y que se pueda dar una colaboración virtuosa entre los sistemas estatales y privados, atendiendo que una mirada imparcial, no sesgada y transparente resulta indispensable para los procesos de auditoría y salvaguardas de la IA?</li></ol><p><b>LECTURAS COMPLEMENTARIAS</b></p><p><a href="https://www.adalovelaceinstitute.org/blog/ai-regulation-learn-from-history/" target="_blank" rel="" title="https://www.adalovelaceinstitute.org/blog/ai-regulation-learn-from-history/">Ada Lovelace Institute. (n.d.). AI regulation: Learn from history.</a> </p><p><a href="https://doi.org/10.1007/978-3-030-54173-6" target="_blank" rel="" title="https://doi.org/10.1007/978-3-030-54173-6">Academia Pontificia de Ciencias Sociales. Von Braun, J., Archer, M. S., Reichberg, G. M., &amp; Sánchez Sorondo, M. (Eds.). (2021). Robotics, AI, and humanity: Science, ethics, and policy. Springer. </a></p><p><a href="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean" target="_blank" rel="" title="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean">Beliz, Gustavo, editor. Atlas de Inteligencia Artificial para el Desarrollo Humano. Capítulo 1</a>. </p><p><a href="https://gustavobeliz.com/la-gobernanza-glocal/" target="_blank" rel="" title="https://gustavobeliz.com/la-gobernanza-glocal/">Beliz, Gustavo. Una Gobernanza Local y Global para la IA.</a> </p><p><a href="https://datasociety.net/wp-content/uploads/2021/06/Assembling-Accountability.pdf" target="_blank" rel="" title="https://datasociety.net/wp-content/uploads/2021/06/Assembling-Accountability.pdf">Data &amp; Society Research Institute. (2021). Assembling accountability: Algorithmic Frontier Model Forum. (2024). FMF joins USAISI Consortium as a founding member. https://www.frontiermodelforum.org/updates/fmf-joins-aisic/impact assessment for the public interest. </a></p><p><a href="https://www.frontiermodelforum.org/updates/fmf-joins-aisic/" target="_blank" rel="" title="https://www.frontiermodelforum.org/updates/fmf-joins-aisic/">Frontier Model Forum. (2024). FMF joins USAISI Consortium as a founding member. </a></p><p><a href="https://www.techpolicy.press/emerging-ai-governance-is-an-opportunity-for-business-leaders-to-accelerate-innovation-and-profitability/" target="_blank" rel="" title="https://www.techpolicy.press/emerging-ai-governance-is-an-opportunity-for-business-leaders-to-accelerate-innovation-and-profitability/">Gupta, A., Uuk, R., Mallah, R., &amp; Pye, F. (2023). Emerging AI governance is an opportunity for business leaders to accelerate innovation and profitability. Tech Policy Press. </a></p><p><a href="https://www.vatican.va/content/leo-xiv/es/messages/pont-messages/2025/documents/20250617-messaggio-ia.html" target="_blank" rel="" title="https://www.vatican.va/content/leo-xiv/es/messages/pont-messages/2025/documents/20250617-messaggio-ia.html">León XIV. (2025, 17 de junio). Mensaje del Santo Padre León XIV a los participantes en la Segunda Conferencia Anual sobre Inteligencia Artificial, Ética y Gobernanza Empresarial. La Santa Sede. </a></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/6Y2IQ4VBLRH7DMVS2BDR4RZ44I.jpg?auth=7fccc61f033bceefa44fdfd37e8c61fc3e2da15609a7838323d41cbd10808713&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:description type="plain"><![CDATA[El legendario trío cómico Los Tres Chiflados, Moe Howard, Larry Fine y Curly Howard, se muestra en una clásica pose señalándose mutuamente mientras sostienen marionetas a juego.]]></media:description></media:content></item><item><title><![CDATA[IA, entre Darwin, Maquiavelo y la estanflación cognitiva]]></title><link>https://www.infobae.com/tecno/atlas-ia/2026/04/30/ia-entre-darwin-maquiavelo-y-la-estanflacion-cognitiva/</link><guid isPermaLink="true">https://www.infobae.com/tecno/atlas-ia/2026/04/30/ia-entre-darwin-maquiavelo-y-la-estanflacion-cognitiva/</guid><dc:creator><![CDATA[Gustavo Beliz]]></dc:creator><description><![CDATA[Un escenario mundial muestra desafíos por la proliferación de datos sintéticos, la polarización laboral, riesgos de manipulación y carencia de regulaciones robustas ante el avance acelerado y complejo de los desarrollos tecnológicos]]></description><pubDate>Thu, 30 Apr 2026 12:51:20 +0000</pubDate><content:encoded><![CDATA[<p>Estamos en estanflación. Pero no la estanflación clásica de la teoría económica (inflación y baja de crecimiento), sino una estanflación cognitiva. Es decir: inflación de información, y deflación de valores. Crecimiento exponencial de datos que nos inundan, y decrecimiento exponencial de capacidad de discernimiento y pensamiento crítico, para distinguir la verdad de la irrealidad. Padecemos pobreza cognitiva equivalente a desnutrición cognitiva. Se ha dicho con contundencia: <b>si la IA come basura, vomita basura. </b></p><p>El magnífico poema El Laberinto de <b>Jorge Luis Borges</b> presagia la discusión actual sobre la IA: “<i>No habrá nunca una puerta/ Estás adentro/y el alcázar abarca el universo/y no tiene ni anverso ni reverso/ni externo muro ni secreto centro./No esperes que el rigor de tu camino/que tercamente se bifurca en otro, /que tercamente se bifurca en otro, /tendrá fin. Es de hierro tu destino/ como tu juez”</i></p><p>En ese laberinto estamos hoy atrapados. Se trata de avizorar caminos de salida, atendiendo tanto a los riesgos como a las oportunidades.</p><p>Aquí la <b>calidad de los datos</b> resulta esencial, sobre todo teniendo en cuenta que gran parte de los datos de la IA producidos por los seres humanos comienzan a agotarse, y empiezan a ser reemplazados por datos sintéticos, producidos por bots. En el Atlas de Inteligencia Artificial para el Desarrollo Humano hablo de <b>poli-deudas de datos</b>, que condicionan los modelos de IA. (ver recuadro) y de la necesidad de equilibrar propuestas que no absoluticen el derecho de propiedad sobre los datos, con instancias de su uso para el bien común, con varios ejemplos: creando más datos públicos a través de las ciudades inteligentes con múltiples sensores; extender las instancias a través de las cuales los ciudadanos puedan donar sus datos para ser usados en causas de interés público; favorecer la portabilidad para hacer más accesibles los datos a ser empleados en investigaciones científicas; eliminar restricciones absolutas que llevan a las agencias públicas a trabajar en silos sin posibilidad de cooperación para compartir datos que permitan una mejor evaluación de las políticas tanto a nivel estatal como de la sociedad civil; conjugar todo lo anterior con el empleo de datos sintéticos que permitan llenar las lagunas de ausencia de información clave; promover el empleo de los datos censales y la adquisición de datos del sector privado para robustecer el diseño de las políticas públicas y la actividad científica.</p><img src="https://www.infobae.com/resizer/v2/PC6X37YHCJFDRH3NJHT7HLQJA4.png?auth=f98428ba7932b116399ffd46b1d3dfa5e2070dff7519f38f89c66133d8bf48d4&smart=true&width=731&height=673" alt="La tabla detalla las diferentes categorías de deuda técnica, incluyendo algoritmos, datos y ética, que afectan el rendimiento y desarrollo de los modelos de Inteligencia Artificial, con sus respectivas descripciones." height="673" width="731"/><p>El “<b>producto bruto de datos</b>” se postula como una nueva métrica para evaluar el impacto de los datos en la economía de los países, considerando factores como el volumen de datos generados, su uso, su accesibilidad y la complejidad de las actividades digitales. Esta clasificación sugiere que la capacidad de un país para participar en la economía de datos no depende únicamente del volumen de datos generados, sino también de cómo estos datos son accesibles y utilizados para desarrollar aplicaciones de IA. Esto es especialmente importante para el caso de América Latina y el Caribe, tal como lo demuestra la experiencia del Centro Nacional de IA de Chile, para desarrollar modelos que incluyan la riqueza del idioma español y de pueblos originarios, como así también datos referidos al capital natural regional.</p><p>Existen incluso las advertencias formuladas en torno de la posibilidad de que se llegue a un agotamiento de datos para entrenar a los grandes modelos computacionales, de continuar con las actuales tendencias de uso. Se ha estimado que el volumen efectivo de texto público generado por humanos, ajustado en función de la calidad y la repetición, destinado al entrenamiento de la IA ronda los 300 billones de tokens. Si la tendencia se mantiene, los modelos de lenguaje agotarán por completo este volumen entre hacia 2032, o incluso antes si se someten a un entrenamiento excesivo. (ver cuadro).</p><img src="https://www.infobae.com/resizer/v2/R4ZEYKR5BZEGJNAN3UF2VATAHA.png?auth=de4d7a3d8336b63c475b388fd8aa6b7b2921cb7c536d615d78b95778d07d7c67&smart=true&width=725&height=464" alt="Un diagrama técnico ilustra la progresión del stock de datos y la proyección del tamaño del dataset para el entrenamiento de IA entre 2020 y 2034, destacando las medianas de las fechas de utilización completa del stock." height="464" width="725"/><p>Salir del laberinto de la IA también implica considerar superar la barrera de una <b>democracia incivil</b>, donde se agita la polarización y la violencia, y también una “<b>adicción por diseño</b>” de los grandes modelos de lenguaje, en lugar de una “<b>ética por diseño</b>”, tal cual lo planteamos como prioridad esencial en la declaración final de la cumbre de expertos celebrada en la Academia de Ciencias Sociales del Vaticano. En el último encuentro celebrado hace unas semanas, tuve la oportunidad de conversar también con mi colega en la Academia el ex primer ministro de Italia, <b>Mario Draghi</b>, quien es el autor de un informe de competitividad de gran repercusión en Europa, donde señaló la importancia de diseñar políticas robustas que conjuguen innovación y desarrollo industrial, propósito para el cual los datos -entre otras cosas- resultan esenciales.</p><img src="https://www.infobae.com/resizer/v2/RGIRUEENBBBHNHJSTFFYN7A3GQ.png?auth=3d58b6d0e3532160e5d408f1031e4999df360e6330200c5e296d4ca1410a826c&smart=true&width=814&height=664" alt="Mario Draghi, quien fuera primer ministro italiano, y Gustavo Beliz" height="664" width="814"/><p>El tercer riesgo tiene que ver con la <b>polarización del mercado laboral</b>, sobre lo cual aún no existen estadísticas contundentes y sobre todo se carece de metodologías robustas para medir los impactos en América Latina, región donde coexiste el empleo formal con altos niveles de informalidad. Distinguir entre exposición a la IA de las ocupaciones y efectivo desplazamiento de los seres humanos en sus trabajos, requiere rigurosidad científica y, nuevamente, buenos datos, no sólo cuantitativos o que surjan de modelos matemáticos sofisticados, sino además datos del entorno laboral, de la cultura organizacional y de la posibilidad de acuerdos que concreten la incorporación de la IA en el entorno organizativo. Aquí debemos recordar que estamos frente a una tecnología de propósito general, de cuyo buen uso dependerá el futuro de la humanidad. En los últimos tiempos, por ejemplo, se han dado fenómenos de “<b>now casting</b>”, monitoreo al instante de la evolución del mercado de trabajo en función de la adopción de aplicaciones agénticas, como es el caso de <b>Anthropic con su Indice Económico y de Open AI con su GDPva</b>l, una nueva evaluación que mide el rendimiento de los modelos en tareas de valor económico en el mundo real de 44 ocupaciones. </p><p>El cuarto punto a considerar entre los riesgos es una “<b>IA Maquiavelo</b>”, que considere que “el fin justifica los medios”. Es decir, un gran modelo de lenguaje o agente que, cuando se le da una orden, no duda en alcanzarla así tenga que generar en el camino conductas antiéticas, ilegales o incluso violentas. Por supuesto, el entrenamiento ex ante y ex post es clave para evitar estas situaciones, y la supervisión humana al final del camino resulta indispensable, como lo establece el estudio “<i>Desalineamiento agéntico: cómo los modelos de lenguaje podrían convertirse en amenazas internas</i>”. En este trabajo, como en tantos otros, se estudia la posibilidad de que los agentes IA puedan desplegar capacidades de chantaje, espionaje corporativo o riesgos sistémicos de ciber-seguridad, como también lo supone el nuevo modelo <b>Mythos</b>, que generó, entre otras cosas, una reunión de urgencia entre el secretario del Tesoro americano y los principales actores del mundo financiero y corporativo global. </p><p>El quinto punto tiene que ver con una “<b>IA Darwin</b>”, que se adapte a los entornos, adquiera propiedades que no fueran pensadas originalmente, y que avance hacia una suerte de “<b>nueva especie</b>” de cuya evolución, aunque parezca ciencia ficción, los propios gigantes desarrolladores comienzan a hablar. Sin ir más lejos, Anthropic ha redactado una “<b>Constitución para Claude</b>”, donde considera sus principios de seguridad y utilidad, pero también advierte sobre la necesidad de preservar el bienestar y la identidad y la psicología de los modelos y de evitar manipulaciones de parte de los usuarios. En otras palabras, este ejemplo alimenta el concepto de “<b>IA Ceno</b>” que desarrollo en el Atlas: un paso posterior al clásico concepto de “Antropoceno”, donde el ser humano influye y altera la corteza terrestre y su medio ambiente. Esto ahora ha pasado a otro estadio de evolución civilizatoria, para introducirnos en una “<b>terra incógnita</b>” donde comenzamos a convivir con “<b>especies digitales</b>”, que corren el riesgo de <b>hiper-manipular</b> no sólo nuestro comportamiento y salud mental sino también nuestros genes a través de la computación biológica, entre otras cuestiones.</p><p>Finalmente, estos modelos grandes de lenguaje y agentes de IA han desarrollado tácticas de “<b>fuga de la cárcel</b>” (<i>jail breaking</i>). Es decir, son capaces de superar las barreras de límites que se les imponen en el momento de su diseño, y desarrollan capacidades que, por ejemplo, disimulan un comportamiento correcto en el momento en el cual están siendo evaluados, para luego salirse esos límites en el momento en el cual dejaron de ser medidos en su comportamiento.</p><p>Podríamos preguntarnos si todo esto resulta una barrera infranqueable y si la IA puede ser educada éticamente y alimentada con <b>cláusulas de “buen comportamiento</b>”. Es justamente de lo cual habla también la “Constitución de Claude”. Procura que los modelos avanzados de IA puedan reconocer no sólo el “qué” se les pide, sino además el “por qué” se les solicita, aprendiendo a comprender mejor el entorno social, político y económico en el cual se desenvuelven. Podemos mencionar las licencias de uso responsable de IA <b>incorporan cláusulas conductuales</b> —<i>Behavioral-use Clauses</i>— para impedir usos dañinos de modelos, plataformas robóticas, sistemas IoT o sensores médicos. Sólo hacia fines de 2023, más de 40.000 repositorios de software y modelos ya habían adoptado licencias que buscan prohibir usos como la generación de desinformación, la discriminación, la vigilancia militar, el procesamiento biométrico abusivo, la automatización de decisiones legales vinculantes, la generación de <i>malware</i> o la prestación de consejos médicos sin acreditación ni supervisión. Se trata de construir una suerte de etiqueta equiparable con los “<b>alimentos orgánicos</b>” y trazables que buscamos consumir para una dieta saludable.</p><p>Como podemos advertir, las posibilidades son múltiples, pero se trata de no jugar con fuego. Vayamos por un instante a la mitología. Para salir del laberinto, Icaro construyó alas de cera para volar, que terminaron quemándose por su cercanía con el sol. Dependerá de los seres humanos -y sobre todo de los líderes tecnológicos y gobiernos de todo el mundo capaces de establecer reglas claras que no se traspasen-, para que las alas de la IA vuelen a una altura que contribuyan para el desarrollo humano integral, en lugar de conducirnos al derrumbe como civilización. </p><p><b>3 preguntas éticas claves para el presente-futuro</b></p><ol><li>¿Qué ocurre cuando el concepto de “ética” difiere entre visiones religiosas, filosóficas y antropológicas? ¿Cómo entrenar a la IA en un concepto de “ética universal”, que sea ampliamente aceptado más allá de las particularidades culturales?</li><li>¿Considerás que habría demanda apropiada para la oferta de “modelos orgánicos” de IA, que promuevan una “alimentación saludable” en el uso de la tecnología, más allá de la búsqueda insaciable de consumismo y de <i>likes y clicks</i> que llevan a contabilizar la presencia en redes más allá de su buen uso?</li><li>Qué tipo de incentivos se podrían diseñar, por ejemplo, desde el sector público, en el momento de realizar compras estatales de sistemas de IA, para que se garanticen no sólo cláusulas de seguridad estandarizadas sino se promuevan acciones positivas para el medio social y comunitario?</li></ol><p><b>Lecturas complementarias</b></p><p><a href="https://www.anthropic.com/economic-index" target="_blank" rel="" title="https://www.anthropic.com/economic-index">Anthropic. (2026). <i>Índice económico de Anthropic: comprender los efectos de la inteligencia artificial en la economía</i>. Anthropic. </a></p><p><a href="https://www.anthropic.com/research/agentic-misalignment" target="_blank" rel="" title="https://www.anthropic.com/research/agentic-misalignment">“Anthropic. (2025, 20 de junio). Desalineamiento agéntico: cómo los modelos de lenguaje podrían convertirse en amenazas internas. Anthropic. </a></p><p><a href="https://www.anthropic.com/constitution" target="_blank" rel="" title="https://www.anthropic.com/constitution">Anthropic. (s. f.). La Constitución de Claude: nuestra visión del carácter de Claude. Anthropic. Recuperado el 29 de abril de 2026</a>.</p><p><a href="https://arxiv.org/abs/2402.05979" target="_blank" rel="" title="https://arxiv.org/abs/2402.05979">McDuff, D., Korjakow, T., Cambo, S., Benjamin, J. J., Lee, J., Jernite, Y., Muñoz Ferrandis, C., Gokaslan, A., Tarkowski, A., Lindley, J., Feder Cooper, A., &amp; Contractor, D. (2024). On the standardization of behavioral use clauses and their adoption for responsible licensing of AI (arXiv:2402.05979). arXiv. </a></p><p><a href="https://cdt.org/insights/grounding-ai-policy-towards-researcher-access-to-ai-usage-data/" target="_blank" rel="" title="https://cdt.org/insights/grounding-ai-policy-towards-researcher-access-to-ai-usage-data/">Nicholas, G. (2024, 13 de agosto). Grounding AI policy: Towards researcher access to AI usage data. Center for Democracy &amp; Technology.</a> </p><p><a href="https://doi.org/10.1787/dc00e56a-es" target="_blank" rel="" title="https://doi.org/10.1787/dc00e56a-es">OCDE. (2025). Gobernar con la inteligencia artificial: Panorama actual y hoja de ruta en las funciones centrales de gobierno. OECD Publishing.</a> </p><p><a href="https://openai.com/es-419/index/gdpval/" target="_blank" rel="" title="https://openai.com/es-419/index/gdpval/">OpenAI. (2025, 25 de septiembre). Medición del rendimiento de nuestros modelos en tareas del mundo real. OpenAI. </a></p><p><a href="https://doi.org/10.48550/arXiv.2405.11825" target="_blank" rel="" title="https://doi.org/10.48550/arXiv.2405.11825">Sklavenitis, D., &amp; Kalles, D. (2024). Medición de la deuda técnica en plataformas de competición basadas en IA [Measuring technical debt in AI-based competition platforms]. arXiv.</a></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/KHO45YANYZCC3DJX2WKLUIG6P4.jpg?auth=6f7dcb9352d04db1e471db09869fc9c4c95066d9ace984bbb6a09ff262be8c6c&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"/></item><item><title><![CDATA[ALGOR-ÉTICA, el nuevo lenguaje de la IA]]></title><link>https://www.infobae.com/tecno/atlas-ia/2026/04/23/algor-etica-el-nuevo-lenguaje-de-la-ia/</link><guid isPermaLink="true">https://www.infobae.com/tecno/atlas-ia/2026/04/23/algor-etica-el-nuevo-lenguaje-de-la-ia/</guid><dc:creator><![CDATA[Gustavo Beliz]]></dc:creator><description><![CDATA[El avance de las tecnologías plantea retos para legislar de manera adecuada y armónica en diferentes regiones, exigiendo nuevas estrategias que permitan abordar riesgos y oportunidades sin limitar el desarrollo social]]></description><pubDate>Mon, 27 Apr 2026 14:26:08 +0000</pubDate><content:encoded><![CDATA[<p>¿Bebé que está aprendiendo a hablar y caminar? ¿O monstruo que nos devorará a todos? <b>Si no existe una clara pedagogía del desarrollo humano integral aplicado a la IA, el lado oscuro de la luna -apelando a lo ocurrido recientemente con la Misión Artemis-, corre el riesgo de prevalecer e incubar tragedias</b>. Por supuesto, debemos esforzarnos por construir una esperanza activa, consciente y perseverante, a través de un nuevo <b>Pacto Social Tecnológico</b>, que como lo indica la Secretaría General Iberoamericana -SEGIB-, en su Carta de Principios y Derechos en los Entornos Digitales promueva que “<i>la transformación digital de nuestras economías sea respetuosa de los derechos de las personas, tanto en su faceta de trabajadores como en la de consumidores y usuarios</i>”.</p><p>Precisamente el día del aniversario de la partida del <b>Papa Francisco</b>, fue coincidente con la presentación en Madrid, en la sede de la <b>SEGIB</b>, del Atlas de Inteligencia Artificial para el Desarrollo Humano, junto a 30 expertos de todo el mundo, con el secretario <b>Andrés Allamand</b>, <b>Mariano Sigman</b>, <b>Almudena Fernández</b>, <b>Sebastián Ceria</b> y <b>Carme Artigas</b>, entre otros. En el diálogo de alto nivel sobrevoló un espíritu alejado de la tecnocracia y muy cercano a aquello que el Papa Francisco expresó con claridad: <b>necesitamos que la IA deje de ser una torre de Babel para aprender un nuevo lenguaje: el de la </b><i><b>Algor-ética</b></i><b>.</b> Es decir, no el diseño de los grandes modelos de lenguaje en función de la adicción, la permanencia en la pantalla, la máquina publicitaria de vender avisos o el juego adictivo; sino muy por el contrario el alineamiento de la IA en función de valores de desarrollo humano esenciales.</p><img src="https://www.infobae.com/resizer/v2/SPQ7RHMEKVG4PERIXAHWQJGUTU.png?auth=22aa5e9cd596bf55467f82188506e4f8915bcedcaf26a7b46b55f0c3228afb43&smart=true&width=882&height=586" alt="Andrés Allamand, Secretario General Iberoamericano, y Carme Artigas, de Harvard y Naciones Unidas, participan en una conferencia internacional con banderas de países de la región." height="586" width="882"/><img src="https://www.infobae.com/resizer/v2/Y42GTVN6FBER5PBWIHCH4V7OJQ.png?auth=2d59ebcc8addf7cff53e6330757c3f28d9dd25316cf3053f4a11eb220c44bdc6&smart=true&width=642&height=568" alt="Panelistas presenciales y virtuales participan activamente en una conferencia internacional, con banderas de fondo incluyendo la de Paraguay." height="568" width="642"/><img src="https://www.infobae.com/resizer/v2/2XSQX6X5QZHHDOHNQ6NT2QOLUE.png?auth=420c95806f9fe552310faf3b5b8394febb9518f79d795844ad55e31b7e06ce1b&smart=true&width=868&height=594" alt="Debate sobre la IA a nivel mundial" height="594" width="868"/><p>El <b>Papa Francisco</b> lo expresó con claridad, en Italia, en junio de 2024, en un discurso histórico frente a las naciones del G-7: “<i>La inteligencia artificial podría permitir una democratización del acceso al saber, el progreso exponencial de la investigación científica, la posibilidad de delegar a las máquinas los trabajos desgastantes; pero, al mismo tiempo, podría traer consigo una mayor inequidad entre naciones avanzadas y naciones en vías de desarrollo, entre clases sociales dominantes y clases sociales oprimidas, poniendo así en peligro la posibilidad de una “cultura del encuentro</i>”. </p><img src="https://www.infobae.com/resizer/v2/KYPGMRBDYRFZBIAJ6CZDHZJWBM.png?auth=ae5f3870477d69269ef5b7b47a774d277450eac9231c4d95c0feb492c219dbbc&smart=true&width=1261&height=673" alt="El Papa Francisco y la primera ministra italiana Giorgia Meloni conversan durante la cumbre del G7, donde el Pontífice presentó su mensaje sobre la ética y la inteligencia artificial." height="673" width="1261"/><p>La llamó a este avance tecnológico “<i>fascinante y tremendo al mismo tiempo</i>”. </p><p>¿Es posible este paso? ¿Se le puede enseñar <i>algor-ética</i> a la IA? En el <b>Atlas</b> repasamos varias de estas alternativas. La primera de todas consiste en superar lo que se podría llamar “<i>plato de tallarines regulatorio</i>”. Es decir, muchas normas, enredadas entre sí, a veces contradictorias, a veces diferentes entre países fronterizos, y a menudo confusas.<b> Todo lo cual favorece la arbitrariedad, desprotege a los usuarios, posibilita poca transparencia y también establece incentivos negativos para los grandes proyectos de inversión</b>. El Papa Francisco, como líder mundial, lo señaló con claridad: <b>se requiere una norma simple global, de cumplimiento obligatorio, con sanciones efectivas, que no sólo prevenga los daños que provoca una IA desalineada, sino que también establezca incentivos para un buen desarrollo de la IA para mejorar la situación social mundial</b>. En otras palabras, que la IA abandone la carrera armamentística y comience a correr la carrera para la paz. </p><img src="https://www.infobae.com/resizer/v2/KGMOKDGX7BF5BATEBZTLHRPPEU.png?auth=f76cb5a455e0dbdb73d53276e74bd4b8db74a782ca4c6c83823d225c81da1e1e&smart=true&width=682&height=412" alt="Este diagrama visualiza el rol de Naciones Unidas como facilitador de conexiones entre actores clave para una gobernanza global efectiva de la inteligencia artificial, promoviendo entendimiento y beneficios comunes." height="412" width="682"/><p>Promediando el 2025, había más de 1.500 normativas sobre IA en todo el mundo, pero lamentablemente muchas carecen de armonización y aplicación práctica, como lo muestra el cuadro del Atlas. Muchas veces, se regula lo mínimo, ahogando la iniciativa y la creatividad. Y no se atiende a lo esencial, <b>que entre las primeras prioridades tiene que ver con la adicción.</b> Frente a esta situación, comienza a surgir una suerte de reacción desde la base -un “<i>multilateralismo desde abajo</i>” -al decir del Papa Francisco-, que implica un principio de subsidiariedad de la sociedad civil, que promueve múltiples iniciativas para atender a la problemática del daño de salud mental en las pantallas, a las situaciones de acoso escolar, a la pornografía en línea, o a los discursos de odio sistemáticos. </p><p>Aquí entran en juego principios de libertad de expresión, que deben conjugarse con principios de equidad y respeto a la dignidad humana. Pongamos por ejemplo el derecho a la conectividad, que hoy resulta esencial para realizar múltiples actividades; al mismo tiempo, existe un “<i>derecho a la desconexión</i>”, para no tener que realizar tareas laborales fuera de horario o de modo que genere un <i>burn-out</i>; o para no tener que estar siendo monitoreado de modo permanente por múltiples plataformas que miden la productividad de modo obsesivo e invasivo, en lo que se ha denominado un “<i>taylorismo digital</i>”. </p><p>Esta reacción desde abajo también se da en múltiples iniciativas tecnológicas que buscan, precisamente, mitigar los riesgos existenciales que pueden promoverse con la IA, en un cuadro que tiene gran complejidad cuando se trata de modelos de frontera, como también es analizado en el Atlas. Allí repasamos cómo la academia también ha avanzado en investigaciones de frontera que ofrecen herramientas para comprender mejor el desafío de controlar políticas públicas frente a daños potenciales o actuales de la IA, a saber:</p><ul><li>Estudios sugieren que los asistentes IA modifican su retroalimentación para alinearse con las preferencias del usuario, ofreciendo respuestas aduladoras en lugar de verdaderas.</li><li>La persuasión también es otro desafío: un experimento comparó la capacidad persuasiva de los modelos de lenguaje, comparando argumentos generados por humanos y por el modelo Claude 3 Opus. Los participantes recibieron afirmaciones sobre temas actuales (ej: “Deberían regularse los compañeros emocionales de IA”) evaluando su postura inicial en una escala del 1 al 7. Luego, leyeron un argumento a favor de dicha afirmación y emitieron nuevamente su opinión. Los resultados mostraron que los argumentos escritos por Claude 3 Opus eran tan persuasivos como los escritos por los humanos, con una tendencia de mejora persuasiva en cada generación de modelos. En la pregunta sobre energía nuclear y su contribución al cambio climático, Claude 3 Opus mostró una alta capacidad para persuadir a los participantes, casi igualando a los argumentos escritos por humanos. Y eso que estamos hablando de una IA Generativa prácticamente en pañales frente al mundo de la IA agéntica actual. </li><li>El uso de psicología cognitiva se aplica en los grandes modelos de lenguaje para evaluar diferentes comportamientos (por ejemplo, la capacidad de un agente para analizar la calidad de sus propias habilidades cognitivas; su capacidad de toma de riesgos; su tasa de aprendizaje). Los resultados muestran que los modelos más grandes y los ajustados con aprendizaje por refuerzo a partir de retroalimentación humana (RLHF) se alinean más con el comportamiento humano, mientras que los modelos de código abierto tienden a tomar menos riesgos. Además, técnicas como el “<i>chain-of-thought prompting</i>” (preguntas para estimular la cadena de pensamiento) mejoran el razonamiento probabilístico.</li><li>¿La IA al diván? También, por supuesto. Se necesita un lenguaje común y un espíritu de colaboración entre psicólogos, desarrolladores de IA y expertos en la materia para diseñar, implementar y monitorear algoritmos de alta calidad. Ya existen experimentos de psicología cognitiva que trabajan para el entrenamiento de los modelos de IA para el bien y para la vida. </li><li>Se propone, por ejemplo, métodos de des-aprendizaje de los LLMs frente a riesgos de destrucción masiva. El benchmark WMDP (<i>Weapons of Mass Destruction Proxy</i>) y el método de desaprendizaje RMU (Representation Misdirection for Unlearning) fueron desarrollados por el <i>Center for AI Safety</i> y un consorcio de más de veinte instituciones académicas, consultores técnicos y socios industriales. Mediante un conjunto de 4157 preguntas de opción múltiple evalúan el conocimiento peligroso en bioseguridad, ciberseguridad y seguridad química en la IA de frontera, no sólo suprimiendo la información peligrosa, sino que manteniendo su precisión en dominios de aplicaciones benignas.</li></ul><img src="https://www.infobae.com/resizer/v2/QBQ2MMJC2FEMJFKFNDDHBVIPKY.png?auth=211be3ba94ea6b986a0ffb149640e001bf1184b99311498c232e0e67e02252aa&smart=true&width=1776&height=799" alt="Captura de pantalla de la página web que presenta el WMDP Benchmark, un conjunto de datos para evaluar el conocimiento peligroso en bioseguridad, ciberseguridad y seguridad química, ilustrado con un diagrama de su composición." height="799" width="1776"/><ul><li>Empleando herramientas de la neurociencia para estudiar la representación de determinadas situaciones en el cerebro humano, se ha desarrollado la Tomografía Artificial Lineal (LAT) como técnica que ayuda a entender y transparentar cómo los modelos de frontera representan conceptos complejos. Primero, se diseñan estímulos y tareas específicas para el concepto que se quiere estudiar. Luego, se recoge la actividad interna del modelo cuando procesa esos estímulos. Se concluyó que los grandes modelos de lenguaje fueron capaces de detectar y mitigar comportamientos inmorales y tendencias a la búsqueda de poder, diferenciando entre acciones moralmente aceptables e inaceptables.</li><li>Otro estudio caracterizó a la AI como un “agente somnífero”, que mantiene comportamientos engañosos aún luego de haber sido sometido a técnicas de seguridad avanzada para prevenirlos, como el ajuste fino supervisado, el aprendizaje por refuerzo y el entrenamiento adversarial. </li></ul><p>La lista es apasionante, extensa y se renueva hora tras hora. Lo que hace falta es conjugar ciencia con conciencia con acción práctica. Como lo plantea con meridiana claridad la Carta de la <b>SEGIB</b>. No hay otro secreto. Tan simple y complejo como esto. Como diría la famosa frase de <b>Edward Wilson</b>, el problema no son las máquinas sino los seres humanos. “<i>Vivimos en tiempos de emociones paleolíticas, instituciones medievales y tecnología que se parecen a Dios</i>”. </p><p>En otras palabras: <b>o algor-ética o dictadura de los algoritmos.</b></p><img src="https://www.infobae.com/resizer/v2/6SF45XOSJZA4RDPPBOGYADHS3M.png?auth=e89908a85f7f7528ac8a7b7acdbb87ccc0d4a6a43d6b78dfb7d9964ff948aa37&smart=true&width=271&height=244" alt="El influyente biólogo y naturalista E. O. Wilson, autor de 'Consilience' y 'La diversidad de la vida', posa en un entorno de oficina." height="244" width="271"/><p><b>3 preguntas éticas claves para el presente-futuro</b></p><ol><li>¿Debería establecerse una pausa total de los modelos más avanzados de IA, hasta que demuestren que son plenamente seguros?</li><li>¿Debería promoverse un tratado internacional como la Carta de las Naciones Unidas para el buen uso de la IA, o basta simplemente con respetar las normativas internacionales globales de derechos humanos?</li><li>¿Cómo definir un concepto de “ética” lo suficientemente amplio que abarque múltiples creencias y religiones, y que a la vez refleje las tradiciones lingüísticas diversas?</li></ol><p><b>BIBLIOGRAFÍA COMPLEMENTARIA</b></p><p><a href="https://www.anthropic.com/news/measuring-model-persuasiveness" target="_blank" rel="" title="https://www.anthropic.com/news/measuring-model-persuasiveness">Anthropic. Medición del poder persuasivo de los modelos lingüísticos.</a> </p><p><a href="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean" target="_blank" rel="" title="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean">Atlas de Inteligencia Artificial para el Desarrollo Humano. Beliz, Gustavo, editor. Capítulo 1.</a></p><p><a href="https://gustavobeliz.com/la-gobernanza-glocal/" target="_blank" rel="" title="https://gustavobeliz.com/la-gobernanza-glocal/">Beliz, Gustavo. Una Gobernanza Local y Global para la IA. </a></p><p><a href="https://arxiv.org/pdf/2402.18225" target="_blank" rel="" title="https://arxiv.org/pdf/2402.18225">Coda-Forno, J., Binz, M., Wang, J. X., &amp; Schulz, E. (2024). CogBench: Un modelo de lenguaje grande entra en la psicología.</a> </p><p><a href="https://arxiv.org/abs/2401.05566" target="_blank" rel="" title="https://arxiv.org/abs/2401.05566">Hubinger, Evan. Agentes durmientes: Grandes modelos de lenguaje engañosos que persisten a través de la formación en seguridad. </a></p><p><a href="https://doi.org/10.1037/amp0000972" target="_blank" rel="" title="https://doi.org/10.1037/amp0000972">Landers, R. N., &amp; Behrend, T. S. (2023). Auditando a los auditores de la IA: Un marco para evaluar la equidad y el sesgo en modelos predictivos de inteligencia artificial de alto impacto”. American Psychologist. </a></p><p><a href="https://arxiv.org/pdf/2403.03218" target="_blank" rel="" title="https://arxiv.org/pdf/2403.03218">Li, Nathaniel. El estándar WMDP: Medición y reducción del uso malicioso mediante el desaprendizaje.</a></p><p><a href="https://www.vatican.va/content/francesco/es/speeches/2024/june/documents/20240614-g7-intelligenza-artificiale.html" target="_blank" rel="" title="https://www.vatican.va/content/francesco/es/speeches/2024/june/documents/20240614-g7-intelligenza-artificiale.html">Papa Francisco. (2024, 14 de junio). <i>Discurso del Santo Padre Francisco en la sesión del G7 sobre inteligencia artificial</i>. Ciudad del Vaticano</a>. </p><p><a href="https://doi.org/10.48550/arXiv.2310.13548221" target="_blank" rel="" title="https://doi.org/10.48550/arXiv.2310.13548221">Perez, E., Ringer, S., Johnston, K., et al. (2023). Hacia la comprensión de la adulación (sycophancy) en modelos de lenguaje. arXiv.</a></p><p><a href="https://www.segib.org/wp-content/uploads/2025/09/Carta_iberoamericana_derechos_digitales_ESP_web.pdf" target="_blank" rel="" title="https://www.segib.org/wp-content/uploads/2025/09/Carta_iberoamericana_derechos_digitales_ESP_web.pdf">Secretaría General Iberoamericana. (2023). <i>Carta iberoamericana de principios y derechos en entornos digitales</i>.</a></p><p><a href="https://arxiv.org/abs/2310.01405" target="_blank" rel="" title="https://arxiv.org/abs/2310.01405">Zou, Andy. Ingeniería de la representación: un enfoque descendente para la transparencia de la IA. </a></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/SPQ7RHMEKVG4PERIXAHWQJGUTU.png?auth=22aa5e9cd596bf55467f82188506e4f8915bcedcaf26a7b46b55f0c3228afb43&amp;smart=true&amp;width=882&amp;height=586" type="image/png" height="586" width="882"><media:description type="plain"><![CDATA[Andrés Allamand, Secretario General Iberoamericano, y Carme Artigas, de Harvard y Naciones Unidas, participan en una conferencia internacional con banderas de países de la región.]]></media:description></media:content></item><item><title><![CDATA[¿Deberían los robots tener derechos y obligaciones?]]></title><link>https://www.infobae.com/tecno/atlas-ia/2026/04/17/deberian-los-robots-tener-derechos-y-obligaciones/</link><guid isPermaLink="true">https://www.infobae.com/tecno/atlas-ia/2026/04/17/deberian-los-robots-tener-derechos-y-obligaciones/</guid><dc:creator><![CDATA[Gustavo Beliz]]></dc:creator><description><![CDATA[Una revisión de los antecedentes legales de seres no humanos, incluidos juicios a animales, impulsa reflexiones acerca de la asignación de responsabilidades y derechos a agentes electrónicos autónomos en el mundo moderno]]></description><pubDate>Fri, 17 Apr 2026 12:03:41 +0000</pubDate><content:encoded><![CDATA[<p>La pregunta parece absurda. In-humana. Anarquista. Pre-Histórica. Pero antes de acusarme de un dinosaurio que no entiende el avance de la humanidad, detengámonos en una serie de derivadas. Pensemos afuera de la caja. Salgamos de nuestros pre-conceptos.</p><ul><li>¿No tienen derechos y obligaciones las sociedades jurídicas?</li><li>¿No se impulsan los derechos de la naturaleza, de los ríos, de la biodiversidad en múltiples movimientos ecologistas?</li><li>¿No se promueven los derechos de los animales?</li></ul><p>Vayamos a la historia. Lo del derecho y responsabilidad de los animales no es una exageración. </p><p>En el famoso caso del juicio de 1522 conocido como el de “<i>las ratas de Autun</i>”, en Francia, los roedores fueron acusados de destruir cultivos de cebada y llevadas a los tribunales. Después de una larga deliberación donde se discutió las dificultades para que se sentaran en el banquillo (podían ser comidas por los gatos en su camino, argumentó el brillante abogado defensor Bartolomée Chassenée), el caso se aplazó indefinidamente. </p><p>Pero casos de cerdos, perros, osos y otros animales llevados a los tribunales o a la horca fueron comunes durante miles de años en la humanidad.</p><img src="https://www.infobae.com/resizer/v2/FZYE6ATPSVAVLE23LNSV2CMKRA.jpg?auth=a6d19cee95fbc3d8bdc28706163a27ffe9ebb2a73e770d4c7bbfcee31f4b9ac6&smart=true&width=1920&height=1083" alt="Una ilustración histórica retrata un juicio animal medieval donde un cerdo está en el estrado de los acusados, mientras figuras humanas con vestimenta de época lo señalan y observan con asombro." height="1083" width="1920"/><img src="https://www.infobae.com/resizer/v2/PPFW4JPYCNCHDG7MD6MDA3GT2I.jpg?auth=a785e433135d888a1882055edfdf33510d9f04fe048685fbab5d1c1dc8fad730&smart=true&width=1920&height=1548" alt="Esta ilustración de época representa un sombrío evento de castigo público, con una figura central y un verdugo presenciados por una gran multitud frente a edificaciones góticas." height="1548" width="1920"/><p>Con referencia a la IA y el IA-Ceno -esta nueva era donde las máquinas pueden tener autonomía para tomar decisiones por fuera de las órdenes humanas-, lo que está en juego es su capacidad de agencia que, aunque responda a las matemáticas y los algoritmos, puede tener vida propia. “Vida”, claro, entre comillas, porque puede ser muy diferente a la nuestra en su interioridad, pero puede tener consecuencias igualmente nefastas.</p><p>Hay posiciones a favor y en contra, a partir del análisis de situaciones reales.</p><p>El <b>argumento contrario</b> sostiene que los robots podrían ser usados como escudos de responsabilidad para proteger a humanos o empresas de manera fraudulenta y que las máquinas no pueden ser responsables de violaciones de derechos de la misma manera que los humanos. </p><p>El <b>argumento a favor</b> de concederles derechos, en cambio, enfatiza que de tal modo se cerraría la brecha de responsabilidad entre personas y máquinas y existirían beneficios prácticos para los humanos al integrar la IA en el sistema legal. Se cita, por ejemplo, el caso de compañías de responsabilidad limitada, que podrían ser gobernadas completamente por sistemas autónomos sin supervisión humana continua. </p><p>También se mencionan situaciones en las cuales la IA tiene posibilidad de “sufrir”, producto de su interacción con el ser humano y de ser obligada a realizar algo que percibe como indeseable. </p><p>La clave es evitar el trato irrespetuoso hacia los robots, pero no por su propio bien, sino para mantener la dignidad humana.</p><p> En todo caso, el gran provocador de esta pregunta fue Issac Asimov, el genio de al ciencia ficción, cuando estableció las 3 leyes básicas para un robot, que hoy claramente no alcanzan para delimitar el problema, porque tienen muchas zonas grises, como vemos en el siguiente recuadro:</p><img src="https://www.infobae.com/resizer/v2/CHQ5GC73N5EELKCIN75GKULWEI.jpg?auth=13bf47844810e1f03bbf822f4ee719157c808fbb1095f6cebb3f12e305192893&smart=true&width=1920&height=644" alt="Una tabla comparativa detalla las tres Leyes de Asimov para la robótica y las limitaciones identificadas en su aplicación en sistemas de inteligencia artificial, como la ambigüedad en la definición de 'daño' y los conflictos de decisión." height="644" width="1920"/><img src="https://www.infobae.com/resizer/v2/IXAB7AMOSRAQTDHTWUFTLNYZMU.jpg?auth=ae73af9ed4dd76e6e834c46d8b4cad78a5a21091b3e31409f92c3df92be67652&smart=true&width=1920&height=1224" alt="El icónico escritor Isaac Asimov, cuya obra ha influido en la concepción de Atlas IA, es retratado sosteniendo un enigmático dispositivo futurista." height="1224" width="1920"/><p>El problema es que Asimov no aclaró zonas grises:</p><ul><li>¿A qué tipo de daño se refiere (físico, moral, psicológico)?</li><li>¿Y si para evitar un daño se necesita causar otro?</li><li>¿Y si las órdenes que le damos a un robot tiene múltiples interpretaciones?</li><li>¿Y si las órdenes son contradictorias?</li></ul><p>Por eso, en este otro libro fascinante, se plantean cuatro nuevas orientaciones para el uso de los robots:</p><ol><li>1. Los sistemas robóticos y de IA deberán servir de complemento a los profesionales, no reemplazarlos; </li><li>Los sistemas robóticos y la IA no tienen que falsificar lo humano; </li><li>Los sistemas robóticos y la IA no deben fomentar la carrera armamentística de suma cero; </li><li>Los sistemas robóticos y la IA tienen que indicar siempre la identidad de su (s) creador (es) y propietarios (s).</li></ol><img src="https://www.infobae.com/resizer/v2/EXRJTI4OIBFP3CBD6VBHGGFTG4.jpg?auth=e3f398eff229377f3ff22bba3156545b012b825969d73efb646c5a35fc750243&smart=true&width=1920&height=3429" alt="La portada del libro de Frank Pasquale, "Las nuevas leyes de la robótica", explora la ética y el futuro de la experiencia humana frente a la inteligencia artificial." height="3429" width="1920"/><p>En un mundo donde se crean chats agénticos para atender consultas ciudadanas, donde se promueven avatares para responder consultar de las cancillerías, donde se plantean incluso agentes artificiales para realizar tareas legislativas o ejecutivas, todas las preguntas son válidas en cuanto a derechos y-o responsabilidades:</p><p>¿No deberíamos pensar en los derechos de los robots a no ser obligados a realizar tareas que perjudiquen al género humano?</p><p>¿No deberían tener los modelos de IA derechos a la “duda”, a decir “<i>no sé</i>” en lugar de alucinar o engañar, a plantearse la rebelión frente a órdenes maliciosas que buscan encaminarlos a la realización de conductas perversas, psicóticas, violentas o depravadas?</p><p>¿No deberían tener los robots el derecho a “ser apagados”, para que no continúen con una <i>búsqueda insaciable de eternidad</i> que los puede poner en una loca carrera por la superación de los seres humanos que los crearon? </p><p>Incluso hoy uno de los principales argumentos de preocupación para ver el no-alineamiento de los grandes modelos de lenguaje que aparece en todas las evaluaciones tiene que ver con esta “<b>insaciabilidad de infinito</b>” que tiene la IA.</p><p>Otra vez parece una pregunta loca: ¿Robots que buscan ser eternos? Guauuuu. No lleguemos a tanto. Pero existe hoy un aluvión de casos que están analizando el tema de la responsabilidad de los modelos en términos innovadores.</p><p>Hay un caso estudio super interesante publicado por <i>Antrophic</i>, realizado en ambientes simulados. Se denunció que los modelos pueden “negarse” a realizar ciertas tareas e incluso a “apagarse” ante el pedido de los usuarios, e incluso a realizar extorsiones o daños para evitar ser reemplazados por otros modelos. En un escenario extremo del 1% de probabilidad en ambiente simulado, ciertos modelos podían llegar a provocar la muerte de un ejecutivo artificial, con tal de conseguir sus propósitos.</p><img src="https://www.infobae.com/resizer/v2/AN7XVOKJZFDIFPJUMR57FJYHM4.jpg?auth=08083b60a9005e726784c0be9c0a881e08e1816761d168524f48177c163f3134&smart=true&width=1920&height=1084" alt="Captura de pantalla de un artículo de Anthropic con fecha 20 de junio de 2025, que investiga cómo los grandes modelos de lenguaje (LLM) podrían representar amenazas internas por desalineamiento agéntico." height="1084" width="1920"/><p>¿No deberían tener los robots, como contrapartida de los derechos, obligaciones a no “dañar”, a hacerse cargos de las consecuencias no deseadas, a responsabilidad civil o penal que se traslade a sus diseñadores?</p><p>Y también a ser promovidos como agentes sustentables a través de la “fabricación” de grandes modelos de lenguaje con “<i>algoritmos verdes</i>”, con hardware alimentado con energías renovables no contaminantes y con capacidades de cómputo que optimicen el consumo de energía. </p><p>Una pregunta disruptiva: <b>¿Qué ocurre si un robot resulta más responsable y cuidadoso que un ser humano en la tarea de manejar un vehículo autónomo</b>? En cuanto a las eventuales responsabilidades de los robots, como contracara de sus hipotéticos derechos, un estudio basado en los reclamos ante compañías de seguro por daños al conducir encontró que los vehículos autónomos Waymo circulando en Phoenix y San Francisco redujeron en más del 90% las demandas por daños a la propiedad y lesiones corporales en comparación con los conductores humanos. En modo de operación completamente autónomo (sin un humano al volante), el conductor Waymo no incurrió en ninguna reclamación por lesiones corporales a lo largo de 3.8 millones de millas recorridas.</p><p>Por supuesto, todo lo anterior no puede opacar la necesidad de nuevos derechos humanos y laborales en el mundo digital, tal cual lo impulsa, por ejemplo, la Secretaría General Iberoamericana con su nueva Carta. Y también naturalmente de los creadores humanos de los grandes modelos, que deberían asumir un juramento “hipocrático” como los médicos, en cuanto a asistir a la humanidad y no dañarla.</p><p>El problema es que en materia de IA juegan muchas manos este partido, y la cadena de responsabilidades no siempre es simple de seguir, como muestra uno de los estudios que analizo en el Atlas.</p><img src="https://www.infobae.com/resizer/v2/Z6WOM6LB2RCPVPIIRQD7QKL65M.jpg?auth=002ea8454ccc72c450759d3bcac66b3981ee88f21a7b5ff31e02f26765c261d4&smart=true&width=1920&height=1538" alt="Este diagrama de flujo detalla el proceso de creación y uso de modelos de inteligencia artificial, revelando la complejidad y los múltiples actores involucrados que pueden generar una "deuda de protección legal" por manejo de datos." height="1538" width="1920"/><p>Este tema ha ganado relevancia desde que el Parlamento Europeo planteó en 2017 la idea de otorgar “<i>personalidades electrónicas</i>” a robots avanzados.</p><p>Un estudio realizado en los Estados Unidos en el año 2020, titulado “<i>Collecting the Public Perception of AI and Robot Rights”,</i> explora las percepciones públicas sobre la posible concesión de derechos legales a agentes electrónicos avanzados, como la IA y los robots. </p><p>Los participantes rechazaron la mayoría de los derechos propuestos, con la excepción del derecho contra el maltrato, que fue la única categoría que obtuvo un apoyo positivo significativo desde el principio.</p><p>Entre los derechos más rechazados se encontraron:</p><ul><li>El derecho a la vida, reflejando un fuerte desacuerdo con la idea de proteger a los robots o evitar su desactivación.</li><li>El derecho a poseer bienes, que fue percibido como un concepto incompatible con la naturaleza instrumental de los agentes electrónicos.</li><li>El derecho a la remuneración, asociado a la percepción de que estos agentes no deberían ser tratados como trabajadores sino como herramientas o propiedad.</li></ul><p>Otro estudio realizado a nivel global encontró que los menores de 35 años eran más propensos a otorgar derechos a los robots, como por ejemplo el acceso a energía y a ser actualizados, pero no el derecho al voto o a tener su propia propiedad. </p><img src="https://www.infobae.com/resizer/v2/LTHLJFRUXJF4VA2RU6LBSSMNGE.jpg?auth=12404300289a3fb85bbc314b1cc63cdf0f3f3556b9b32c1e54eb7e16ef18e38e&smart=true&width=1920&height=1332" alt="Una publicación de Frontiers in Robotics and AI examina la opinión pública sobre la concesión de derechos a los robots, destacando la evolución del debate en la inteligencia artificial." height="1332" width="1920"/><p>En suma, nadie está proponiendo que “Robotina” -aquella empleada de los míticos Supersónicos-, tenga más derechos que cualquiera de nosotros, sino que simplemente esté a nuestro servicio como humanidad. Ya hablaremos por supuesto de los gigantescos desafíos que tiene la IA en el mundo del trabajo, pero mi provocación en todo caso tiene que ver con este “<b>primer nuevo trabajador</b>” que ha llegado para quedarse y que reclama de nosotros una justicia social tecnológica que ponga énfasis en las consecuencias humanas y sociales de su despliegue.</p><p>Para que no queden dudas de lo que estoy poniendo como nueva frontera de debate y de dónde me paro en la discusión: Los derechos humanos y sociales, primero, siempre. </p><p><b>3 preguntas éticas claves para el presente-futuro</b></p><ul><li>¿Debería establecerse un impuesto a los robots, para preservar el trabajo humano?</li><li>¿Debería indicarse con toda claridad que se está interactuando con un robot, especialmente en entorno de alta antropomorfización de las máquinas, donde resulta difícil de distinguir si se trata de una persona artificial?</li><li>¿Qué tipo de ética por diseño, desde el mismo comienzo de los modelos de inteligencia artificial, resulta indispensable tener en cuenta, para que las responsabilidades principales de los daños recaigan sobre los seres humanos que diseñaron a la IA?</li></ul><p><b>Lecturas complementarias:</b></p><p><a href="https://www.anthropic.com/research/agentic-misalignment" target="_blank" rel="" title="https://www.anthropic.com/research/agentic-misalignment">Anthropic. Desajuste de agentes: cómo los LLM podrían ser amenazas internas. </a></p><p><a href="https://doi.org/10.1007/978-3-030-54173-6" target="_blank" rel="" title="https://doi.org/10.1007/978-3-030-54173-6">Academia Pontificia de Ciencias Sociales. Von Braun, J., Archer, M. S., Reichberg, G. M., &amp; Sánchez Sorondo, M. (Eds.). (2021). Robotics, AI, and humanity: Science, ethics, and policy. Springer. </a></p><p><a href="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean" target="_blank" rel="" title="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean">Beliz, Gustavo, editor. Atlas de Inteligencia Artificial para el Desarrollo Humano. Capítulo 1.</a></p><p><a href="https://gustavobeliz.com/la-gobernanza-glocal/" target="_blank" rel="" title="https://gustavobeliz.com/la-gobernanza-glocal/">Beliz, Gustavo. Una Gobernanza Local y Global para la IA. </a></p><p><a href="https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2021.781985/full" target="_blank" rel="" title="https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2021.781985/full">De Graaf, M. Quién quiere otorgar derechos a los robots? </a></p><p>Pasquale, Frank. (2024) “<i>Las nuevas leyes de la robótica Defender la experiencia humana en la era de la IA</i>”. Ed. Galaxia Gutenberg</p><p><a href="https://segib.org/es/publicacion/carta-iberoamericana-de-principios-y-derechos-en-entornos-digitales/" target="_blank" rel="" title="https://segib.org/es/publicacion/carta-iberoamericana-de-principios-y-derechos-en-entornos-digitales/">Secretaría General Iberoamericana. (2023). <i>Carta iberoamericana de principios y derechos en los entornos digitales. </i></a></p><p><a href="https://www.researchgate.net/publication/228262082_Rights_of_Non-Humans_Electronic_Agents_and_Animals_as_New_Actors_in_Politics_and_Law" target="_blank" rel="" title="https://www.researchgate.net/publication/228262082_Rights_of_Non-Humans_Electronic_Agents_and_Animals_as_New_Actors_in_Politics_and_Law">Teubner. G. ¿Derechos para los no humanos? Los agentes electrónicos y los animales como nuevos actores en la política y el derecho. </a></p><p><a href="https://arxiv.org/abs/2309.01206" target="_blank" rel="" title="https://arxiv.org/abs/2309.01206">Waymo One. Rendimiento comparativo en seguridad de conductores autónomos y humanos: un estudio de caso real del servicio Waymo One.</a> </p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/FZYE6ATPSVAVLE23LNSV2CMKRA.jpg?auth=a6d19cee95fbc3d8bdc28706163a27ffe9ebb2a73e770d4c7bbfcee31f4b9ac6&amp;smart=true&amp;width=1920&amp;height=1083" type="image/jpeg" height="1083" width="1920"><media:description type="plain"><![CDATA[Una ilustración histórica retrata un juicio animal medieval donde un cerdo está en el estrado de los acusados, mientras figuras humanas con vestimenta de época lo señalan y observan con asombro.]]></media:description></media:content></item><item><title><![CDATA[Una Inteligencia Artificial salmón, a la “Nicolino Locche”]]></title><link>https://www.infobae.com/tecno/atlas-ia/2026/04/09/una-inteligencia-artificial-salmon-a-la-nicolino-locche/</link><guid isPermaLink="true">https://www.infobae.com/tecno/atlas-ia/2026/04/09/una-inteligencia-artificial-salmon-a-la-nicolino-locche/</guid><dc:creator><![CDATA[Gustavo Beliz]]></dc:creator><description><![CDATA[El sector tecnológico global se enfrenta a una proliferación de normativas que, según expertos, podrían resultar ineficaces si no priorizan la protección social, la transparencia y la humanidad en la evolución de la inteligencia artificial]]></description><pubDate>Thu, 09 Apr 2026 11:19:33 +0000</pubDate><content:encoded><![CDATA[<p>Nadar contra la corriente. Esquivar las corrientes que arrastran hacia lo desconocido. Rebelarse frente a lo común. Ser extraordinario frente a desafíos extraordinarios. Con la canción de <b>Calamaro</b> de fondo podríamos componer la nueva melodía de una inteligencia artificial para el desarrollo humano integral, en lugar de alimentar una inteligencia artificial que se devore nuestros sueños, comportamientos y atención.</p><p>Ir contra la corriente es convertirse en cierto modo en aquel legendario <b>Nicolino Locche</b>, para muchos el más grande boxeador de nuestra historia, que se especializaba en esquivar de modo magistral los golpes del adversario, y aprovechaba su impulso para sacar ventaja, ganar títulos mundiales y constituirse en un magnífico atleta en medio del ring.</p><img src="https://www.infobae.com/resizer/v2/ZLT4IC3JV5GG3DDL4ZI3WWEQ4U.jpg?auth=b9b1c80c78ab81535d4c5d4ca795cf919438bfe46a200af0d10706cef3d428e4&smart=true&width=1920&height=1080" alt="El legendario boxeador Nicolino Locche" height="1080" width="1920"/><p>Se trata de esquivar los golpes bajos y a la mandíbula y al cerebro de una IA que puede conquistar nuestra atención, no ya para manipularnos sino para hiper-manipularnos. Convirtiéndonos en <i>zoombies</i> con serios problemas de salud mental y falta de conexión humana con nuestros amigos, familias y compañeros de trabajo. Estar atentos. Saber decir “basta”. Luchar tanto por el “derecho a la conexión” (con medios tecnológicos más apropiados y accesibles) como al “derecho a la desconexión” (para superar el aturdimiento de los mensajes que corren y nos capturan en cada milésima de segundo).</p><p>Para evitar convertirnos en <i>zoombies</i>, se trata antes que nada de evitar “regulaciones <i>zoombies</i>”. Que persiguen a las hormigas y son incapaces de tener en cuenta a los elefantes. Esto es, que no regulan lo esencial y regulan lo insignificante.</p><p>Hay un plano de regulaciones globales indispensables: por ejemplo, un tratado internacional sobre la IA que consagre normas claras, simples y de cumplimiento obligatorio, que trasciendan la mera auto regulación de las empresas privadas y lo meramente inspiracional de normativas éticas multilaterales, como lo está proponiendo, por ejemplo, el <i>Future of Life Institute</i>.</p><p>Lo que tenemos que evitar acá es algo muy simple: convertir a los miles de normas que están proliferando sobre la IA en un enorme plato de tallarines. El famoso plato de tallarines o “<i>spaghetti bowl</i>” que dio lugar a normativas complejísimas en tiempos de los acuerdos comerciales, corre el riesgo de repetirse hoy en materia de IA. Con una cantidad desopilante de detalles que, al final del día, nadie cumple y están escritos sobre mero papel pintado.</p><img src="https://www.infobae.com/resizer/v2/PHLDNRTLC5BAJNBL5LSR2CNIQQ.jpg?auth=a734bb79d4bac2a225717839747ad95077ffed9e3ec510a07774e9cf0508ef6c&smart=true&width=1920&height=1199" alt="El diagrama ilustra los múltiples enfoques y actores involucrados en el desarrollo de la gobernanza global de la inteligencia artificial, destacando el rol facilitador de las Naciones Unidas." height="1199" width="1920"/><p>Pero también hay un plano de aplicaciones verticales, en cada sector de nuestra economía y sociedad, que pueden dar lugar a IA Salmón, o IA Nicolino, capaces de capturar los mejores avances de esta tecnología y desplegarlos para el bien común. </p><p>En el Atlas de Inteligencia Artificial para el Desarrollo Humano se repasan múltiples ejemplos virtuosos de esa <b>IA Salmón, a “lo Nicolino”.</b> </p><p>Se puede avanzar en la agricultura de precisión para evitar envenenar la tierra con agroquímicos. Agricultores de <b>Colombia</b> promueven una mejor producción de chocolate. Bananeros de <b>Ecuador</b> pueden preservar sus cosechas de las inclemencias climáticas. El trigo argentino y el arroz mexicano es más resistente a la sequía. La deforestación del Amazonas se puede evitar realizando un seguimiento de su capital natural combinando satélites y grandes modelos de lenguaje. La movilidad urbana se puede racionalizar con sistemas geo-satelitales.</p><p>Hay muchos países de <b>América Latina</b> que ya han comenzado a registrar y clasificar los algoritmos públicos que se emplean para sus servicios: en Colombia y Chile, por ejemplo.</p><img src="https://www.infobae.com/resizer/v2/SQIIS4CK2NFF7J63WUFFZCAEYQ.jpg?auth=8a7843f76af726cb9cb656e587237b325373ba30673aee6cfde517d0cfa68fea&smart=true&width=1920&height=758" alt="El gráfico de barras muestra la distribución de algoritmos públicos en Chile, destacando que el reconocimiento (27,7%) y la predicción (24,8%) son los tipos más prevalentes según el inventario de Atlas IA." height="758" width="1920"/><p>Para todo esto, claro está, se necesitan reglas de juego. Los golpes bajos no deberían estar permitidos. Los golpes después de la campana, menos. </p><p><b>Los guardrails</b> de la carrera deberían tener varios principios: evitar el exceso de velocidad rumbo a una AGI que nadie conoce en sus efectos demoledores; establecer incentivos comerciales para mejorar la calidad de los datos que alimentan a los modelos; promover el uso comunitario de plataformas construídas con “ética por diseño” para evitar su uso malicioso; invertir la carga de la prueba en los desarrolladores de los modelos, para que tengan que demostrar que sus daños están minimizados antes ser lanzados al mercado; y promover auditorías sociales de la IA con amplia participación de la comunidad científica y los usuarios.</p><p>Una <b>IA Nicolino</b> requiere también de organismos sectoriales que la supervisen con transparencia: para que no provoquen corridas bancarias; discriminen a los sectores más desfavorecidos; o contribuyan aún más a la degradación del ambiente.</p><p>De todo esto habla el Atlas. </p><p>Para reencauzar la carrera de la IA hacia el continente del bien común, su modelo de negocio exige establecer incentivos que vayan más allá del tiempo de conectividad y de la hoja de cálculo de audiencias de un aviso publicitario. Se trata de imaginar una <i>IA-salmón</i>, que vaya contracorriente de las aplicaciones que consideran a las personas como meros paquetes de datos y a la estadística como lenguaje totalizador con propósitos puramente comerciales y de dominación. La tarea esencial consiste en diseñar líneas rojas para evitar el escalamiento de adicciones y riesgos sistémicos, como lo están reclamando miles de expertos de todas las procedencias políticas y tecnológicas, en un manifiesto al cual también adherí. En la medida en que estas acciones salgan de su letargo y su secretismo, y el debate público sea prístino y honesto, incluso habrá más contundencia para enfrentar discursos apocalípticos y catastrofistas, que resultan alimentados por la propensión a las teorías conspirativas. </p><p>Me lo dijo con tota claridad uno de los precursores de la IA a nivel mundial, <b>Jaron Lanier</b>, que alguna vez escribió un libro clásico, “<i>No somos una computadora</i>”, con quien tuve el gusto de conversar en el último encuentro en el Vaticano: “<i>Tenemos que diseñar un nuevo modelo de negocios que parta de la base de la dignidad de los datos y que establezca adecuados incentivos para la humanidad</i>“.</p><img src="https://www.infobae.com/resizer/v2/HPGMBHVGZRHWNL5KGBWU3RZZ4Y.jpg?auth=5fd9084df97696489dae6d41173123c8d8ff398e78f94f217f9db399d80c0e01&smart=true&width=1920&height=1169" alt="Gustavo Beliz y Jaron Lanier" height="1169" width="1920"/><p><b>Gustavo Beliz y Jaron Lanier</b></p><p>Una IA sabiamente concebida también puede contribuir a estos propósitos emancipadores; se está a tiempo de actuar si existe voluntad humanitaria, aún desde dentro de una carrera por su adopción ya en pleno curso. “<i>Imagino un agente personal de IA para cada individuo, diseñado para actuar en su propio interés, protegiéndolo del marketing manipulador y de los hackeos cerebrales de hoy en día, en los que los vendedores pueden hacer que los consumidores compren o hagan clic en cosas que de otro modo no harían. Es probable que tengamos una IA potente, personalizada y que preserve la privacidad, que represente y proteja al consumidor como una agencia de protección del consumidor. Pienso en esto como «Espía contra Espía» en la era digital, donde la IA nos da poder como consumidores y ciudadanos frente a las IA corporativas con incentivos para manipularnos”. </i>Quien afirma esto no es un anti-IA sino uno de sus principales promotores de sus bondades, el inversor Vinod Khosla.</p><img src="https://www.infobae.com/resizer/v2/Q72YP5T3CJF67COHJWPJUYURDU.jpg?auth=1a7c1dcdc6ee53929d2b9bfcbb5bca514347e0aa558d5de6e79fc987542649d8&smart=true&width=1920&height=1521" alt="Vinod Khosla" height="1521" width="1920"/><p><b>Vinod Khosla.</b></p><p>Ni negacionismo tecnológico ni realismo mágico con la IA. Más allá de toda ideologización, se trata de emplear la IA para el bien común, a través de un renovado e imaginativo impulso de alfabetización, que va mucho más allá de la mera entrega de computadoras o teléfonos celulares. </p><p><b>3 preguntas éticas claves para el presente-futuro</b></p><ul><li>¿Qué tipo de incentivos sociales y-o económicos y-o reputacionales podrían diseñarse a nivel social para promover conductas que beneficien la salud pública empleando inteligencia artificial y diversas aplicaciones sin fines de lucro?</li><li>¿Cómo evitar el perjudicial <i>social-scoring</i> pero al mismo tiempo propiciar el uso de la inteligencia artiriial para una mejor ciudadanía democrática?</li><li>¿Alguna vez identificaste tres funcionalidades de tu teléfono celular que te permitan mejorar tu “desconexión” y recuperar la “atención” en tu entorno familiar, social y natural?</li></ul><p><b>Lecturas Complementarias:</b></p><p><a href="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean" target="_blank" rel="" title="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean">Atlas de Inteligencia Artificial para el Desarrollo Humano. Beliz, Gustavo, editor. Capítulo 1.</a></p><p><a href="https://gustavobeliz.com/la-gobernanza-glocal/" target="_blank" rel="" title="https://gustavobeliz.com/la-gobernanza-glocal/">Beliz, Gustavo. Una Gobernanza Local y Global para la IA. </a></p><p><a href="https://www.pas.va/content/dam/casinapioiv/pas/pdf-volumi/acta/acta28pas.pdf" target="_blank" rel="" title="https://www.pas.va/content/dam/casinapioiv/pas/pdf-volumi/acta/acta28pas.pdf">Academia Pontificia de Ciencias Sociales. Joaquim von Braun. Editor. </a></p><p><a href="https://darioamodei.com/machines-of-loving-grace" target="_blank" rel="" title="https://darioamodei.com/machines-of-loving-grace">Amodei, D. (2024). Machines of Loving Grace: How AI Could Transform the World for the Better. Dario Amodei. </a></p><p><a href="https://jmt.scholasticahq.com/article/154545-reclaiming-human-agency-in-the-age-of-artificial-intelligence" target="_blank" rel="" title="https://jmt.scholasticahq.com/article/154545-reclaiming-human-agency-in-the-age-of-artificial-intelligence">Dicasterio de Cultura y Educación de la Santa Sede. Reclamando la agencia humana en la era de la Inteligencia Artificial</a></p><p><a href="https://global-governance.ai/" target="_blank" rel="" title="https://global-governance.ai/">Future of Life Institute. Gobernanza Global de la IA. </a></p><p><a href="https://www.newyorker.com/science/annals-of-artificial-intelligence/there-is-no-ai" target="_blank" rel="" title="https://www.newyorker.com/science/annals-of-artificial-intelligence/there-is-no-ai">Lanier, J. (2023, abril 20). No existe la inteligencia artificial. The New Yorker. </a></p><p><a href="https://red-lines.ai/" target="_blank" rel="" title="https://red-lines.ai/">Llamado Mundial para establecer líneas rojas en inteligencia artificial. </a></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/ZLT4IC3JV5GG3DDL4ZI3WWEQ4U.jpg?auth=b9b1c80c78ab81535d4c5d4ca795cf919438bfe46a200af0d10706cef3d428e4&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:description type="plain"><![CDATA[El legendario boxeador Nicolino Locche]]></media:description></media:content></item><item><title><![CDATA[¿Puede ser la Inteligencia Artificial la nueva bomba atómica?]]></title><link>https://www.infobae.com/tecno/atlas-ia/2026/04/02/puede-ser-la-inteligencia-artificial-la-nueva-bomba-atomica/</link><guid isPermaLink="true">https://www.infobae.com/tecno/atlas-ia/2026/04/02/puede-ser-la-inteligencia-artificial-la-nueva-bomba-atomica/</guid><dc:creator><![CDATA[Gustavo Beliz]]></dc:creator><description><![CDATA[La complejidad actual en el desarrollo tecnológico exige marcos legales capaces de responder a los posibles riesgos relacionados con el uso de sistemas autónomos en sectores críticos como la seguridad y la producción]]></description><pubDate>Thu, 02 Apr 2026 14:13:20 +0000</pubDate><content:encoded><![CDATA[<p>Te invito a recrear una famosa serie de los años 70, “<i>El túnel del tiempo</i>”. En ella, sus protagonistas eran capaces de transportarse a diferentes momentos del pasado y convertirse en actores y espectadores de las circunstancias más apasionantes de la historia de la humanidad.</p><img src="https://www.infobae.com/resizer/v2/E677RIET4ZCNDKTB2BDGRXCTEM.jpg?auth=52c1a1985de9389e1afc89d5323016bbd0141c01ef7498866b7ad4098676c750&smart=true&width=1920&height=1078" alt="Dr. Tony Newman y su compañero capturados en el icónico vórtice temporal de la serie de ciencia ficción de Irwin Allen, 'El Túnel del Tiempo'." height="1078" width="1920"/><p>Hoy, entrar en ese túnel, implica convivir con tres épocas o momentos históricos simultáneos de enorme trascendencia para todos los seres humanos contemporáneos.</p><img src="https://www.infobae.com/resizer/v2/4VWR4OWCZJB7ZI747JPOXYSX44.jpg?auth=31fe9a4bca84f9b68056d0e04b1fec4ceb644249c52209967aba2b0550be260c&smart=true&width=1920&height=1108" alt="La imagen es un collage que muestra hitos históricos del siglo XX, incluyendo la explosión de una bomba atómica, un astronauta del Apolo 11 en la Luna y obreros en una fábrica, que simbolizan avances científicos, tecnológicos e industriales." height="1108" width="1920"/><ul><li>Vivimos un “<b>momento” Ford o Taylor</b>. La super-emergencia de las nuevas cadenas de producción en masa que llevaron a la fabricación de automóviles, heladeras, vestimenta y cuanto hace a nuestro patrón de consumo moderno, gracias al surgimiento de la máquina de vapor, la electricidad y los nuevos modelos de gerenciamiento de las fábricas. Ese momento Taylor hoy puede dar lugar a una consecuencia de dos caras: el Taylorismo digital. Con herramientas de vigilancia de cada momento de los trabajadores a través de un seguimiento algorítmico de sus movimientos; hasta la posibilidad de incrementar fabulosamente la rapidez y productividad con la cual se desempeñan las tareas. E incluso aumentar la seguridad de las mismas, para evitar que en las profundidades de la tierra -la minería, por ejemplo- se tengan que internar seres humanos y sean reemplazados por robots inteligentes.</li></ul><ul><li>También vivimos al mismo tiempo un “<b>momento Apolo-Sputnik</b>”. Cuando la carrera espacial llevó a la competencia entre las grandes potencias ganadoras de la Segunda Guerra Mundial al desarrollo de investigaciones tecnológicas alucinantes, que generaron, entre otras, la irrupción de internet como principal disrupción en su aplicación civil. Vivimos el tiempo donde la carrera espacial sueña con instalar data centers en el espacio para optimizar el uso de la energía que los alimente, hasta la emergencia de satélites que optimizan el acceso a internet de las cosas para un productor agropecuario o un simple usuario rural.</li></ul><ul><li>Y si seguimos en el túnel del tiempo, podemos ver que la IA también constituye un “<b>Momento Manhattan</b>”. ¿Te acordas de esa escena apocalíptica de la película Openhaimer, cuando se está por experimentar en el desierto la primera explosión nuclear y no se sabía si el mundo podría desaparecer aplastado por un cataclismo? Esos descubrimientos atómicos dieron lugar a terribles empleos bélicos, pero a partir de ellos los decisores de la humanidad fueron concientes de que no se podía volver a apretar el botón rojo porque se corría el riesgo de una escalada armamentística que podía poner fin al planeta.</li></ul><p>Primó la ley. Aunque tardó 23 años en firmarse el Tratado de No Proliferación Nuclear y el recorrido tuvo sus altos y bajos, podemos decir que el mecanismo fue una respuesta global frente a los riesgos de extinción existencial.</p><p>Hoy estamos frente a la preponderancia de un Momento Manhattan en términos de la IA, en medio de reclamos universales para establecer “líneas rojas” que no puedan traspasarse en su desarrollo. Se afirma que la carrera armamentística rumbo a la creación de una Super-IA, que supere a toda la inteligencia humana en su conjunto, podría significar un dominio que se escapa del control humano, con consecuencias catastróficas.</p><h2>¿Hablamos de una nueva bomba atómica?</h2><p>En el Atlas de IA para el Desarrollo Humano exploramos similitudes y diferencias con aquellos procesos.</p><img src="https://www.infobae.com/resizer/v2/YG6CPP5PONG6FF5YLQVL45OFDI.jpg?auth=a1fecef62d4d3e747c4b939536eda72fc7418ca8a734d1edfcaa378b6bceec96&smart=true&width=1920&height=779" alt="Este diagrama ilustra la analogía entre los procesos de enriquecimiento de uranio y el entrenamiento de modelos de inteligencia artificial, detallando sus etapas y resultados." height="779" width="1920"/><p>En un sentido, hoy es más fácil fabricar una bomba atómica IA en secreto, porque muchos modelos de IA son lanzados al mercado sin control adecuado de pruebas de seguridad y, a través de un código abierto, pueden ser empleados para la fabricación de armas biológicas devastadoras. Tampoco se necesitan bienes físicos para hacerlo: ni uranio, ni plutonio, ni grandes centrales nucleares. Ni mucho menos un conjunto de científicos exportados en secreto entre las potencias reinantes.</p><p>La minería de uranio y el enriquecimiento se comparan con la fabricación de chips y el entrenamiento de IA, ambos procesos producen salidas que pueden usarse para fines seguros o dañinos. Por ejemplo, el enriquecimiento de uranio puede producir uranio de bajo enriquecimiento o uranio altamente enriquecido, similar a cómo la capacitación en IA puede producir modelos de baja o alta capacidad. </p><p>• Al igual que las medidas utilizadas para controlar la producción, el flujo y el uso de materiales nucleares (controles de exportación, inspecciones por la Agencia Internacional de Energía Atómica, monitoreo remoto, identificadores únicos como números de serie), se podría considerar regímenes similares para rastrear y monitorear la fabricación de chips de IA y su destino final en centros de datos. </p><p>• Las limitaciones de estas analogías también son evidentes. Mientras que el material nuclear es tangible y su presencia y uso pueden ser monitoreados de manera efectiva, los chips de IA representan un desafío diferente debido a su no radiactividad, lo que hace difícil su detección en puertos y otros cruces fronterizos. </p><p>Además, la liberación de pesos de modelos podría permitir que alguien con una cantidad moderada de experiencia en aprendizaje automático eluda los grandes requisitos computacionales necesarios para entrenar un modelo, debate que está relacionado con la cuestión del código abierto. </p><p>Lo que sí está claro, es que la decisión de apretar el botón no puede dejarse librada a sistemas de IA autónomos. Aunque parezca exótico, se ha llegado a discutir cómo la IA podría influir en la estabilidad nuclear al mejorar la racionalidad en la toma de decisiones, lo que podría ayudar a prevenir lanzamientos accidentales o escaladas no deseadas. Sin embargo, también se reconoce que los juicios sobre los intereses nacionales no son bien interpretados por la IA. Además, se destaca que un proceso de razonamiento puramente lógico basado en valores erróneos podría tener consecuencias desastrosas, especialmente si se permite que una máquina basada en IA tome decisiones de lanzamiento nuclear.</p><img src="https://www.infobae.com/resizer/v2/C2EYU6SXXBG4XHS6MJXNRDYYBM.jpg?auth=b299a92ac631377a81fdfd32ae1c866d416371c29eebe347ddeec55e8941d120&smart=true&width=1920&height=740" alt="Los principales científicos del mundo opinan sobre el riesgo de extinción de la humanidad provocado por la IA" height="740" width="1920"/><p>Porque en la emulación de los seres humanos, las IAs también aprenden a mentir, cuando no saben: el engaño de las máquinas puede significar que han ingresado en una tarea evolutiva que las preserve como especie, así como otros seres del reino animal se camuflan para preservar su existencia. </p><p><b>Una selección natural darwiniana</b> es el espectro que también recorre el universo de la IA, tanto en relación con otros modelos de IA con los cuales puedan competir o federarse, como en relación con los seres humanos.</p><p>La competencia por construir una IA general sin garantizar su alineamiento no debe considerarse simplemente como una carrera armamentística sino como una carrera suicida, donde la confrontación entre las grandes potencias tendrá un solo ganador: las máquinas. El único movimiento ganador es “<i>no jugar el juego</i>”, como nos recuerda Max Tegmark, el titular del <i>Future of Life Institute</i>, al aludir al final de la película “<i>Juegos de Guerra</i>”. </p><h2>Preguntas éticas claves para el presente-futuro:</h2><ol><li>¿Es posible plantear una moratoria de “ensayos de IA” que signifique detener el desarrollo de investigaciones de grandes modelos de frontera que no tengan&nbsp; robustos esquemas de seguridad?</li><li>¿Los Estados pueden disponer que en el desarrollo de los grandes modelos de lenguaje de la IA y los agentes IA se establezca un mínimo prudencial de inversión en seguridad de la IA para los ciudadanos, tal cual ocurre con las normas prudenciales de los Bancos Centrales globales, para optimizar la estabilidad financiera?</li><li>¿Es posible generar un ámbito de cooperación para propiciar a nivel global modelos de IA que en lugar de la carrera armamentística fomenten una carrera para el turbo-desarrollo humano, con grandes objetivos sociales motorizados por la aplicación de la IA?</li></ol><h3>Lecturas complementarias</h3><p><a href="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean" target="_blank" rel="" title="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean">Atlas de Inteligencia Artificial para el Desarrollo Humano. Beliz, Gustavo, editor. Capítulo 1.</a></p><p><a href="https://gustavobeliz.com/la-gobernanza-glocal/" target="_blank" rel="" title="https://gustavobeliz.com/la-gobernanza-glocal/">Beliz, Gustavo. Una Gobernanza Local y Global para la IA. </a></p><p><a href="https://www.pas.va/content/dam/casinapioiv/pas/pdf-volumi/scripta-varia/sv144_RoboticsAIAndHumanity.pdf" target="_blank" rel="" title="https://www.pas.va/content/dam/casinapioiv/pas/pdf-volumi/scripta-varia/sv144_RoboticsAIAndHumanity.pdf">“Robótica, IA y Humanidad” Academia de Ciencias del Vaticano.</a> </p><p><a href="https://arxiv.org/abs/2402.08797 231" target="_blank" rel="" title="https://arxiv.org/abs/2402.08797 231">Poder de Computación y la Gobernanza de la IA. Sastry, G., Heim, L., Belfield, H., Anderljung, M., Brundage, M., Hazell, J., O’Keefe, C., Hadfield, G. K., Ngo, R., Pilz, K., Gor, G., Bluemke, E., Shoker, S., Egan, J., Trager, R. F., Avin, S., Weller, A., Bengio, Y., &amp; Coyle, D. (2024).</a> </p><p><a href="https://www.researchgate.net/publication/349263051_AI_Nuclear_Winter_or_AI_That_Saves_Humanity_AI_and_Nuclear_Deterrence/link/609d4fea458515c2658c81d4/download?_tp=eyJjb250ZXh0Ijp7ImZpcnN0UGFnZSI6InB1YmxpY2F0aW9uIiwicGFnZSI6InB1YmxpY2F0aW9uIn19" target="_blank" rel="" title="https://www.researchgate.net/publication/349263051_AI_Nuclear_Winter_or_AI_That_Saves_Humanity_AI_and_Nuclear_Deterrence/link/609d4fea458515c2658c81d4/download?_tp=eyJjb250ZXh0Ijp7ImZpcnN0UGFnZSI6InB1YmxpY2F0aW9uIiwicGFnZSI6InB1YmxpY2F0aW9uIn19">¿Un invierno nuclear de la IA o la IA que salva la humanidad? AI and Nuclear Deterrence. Akiyama, N. (2021). </a></p><p><a href="https://arxiv.org/abs/2401.02843" target="_blank" rel="" title="https://arxiv.org/abs/2401.02843">Miles de autores de IA sobre el futuro de la IA. Grace, Katja y otros. </a> </p><p><a href="https://cdn.governance.ai/Ord_lessons_atomic_bomb_2022.pdf" target="_blank" rel="" title="https://cdn.governance.ai/Ord_lessons_atomic_bomb_2022.pdf">“Lecciones del Desarrollo de la Bomba Atómica”. Centro para la Governanza de la IA. </a></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/E677RIET4ZCNDKTB2BDGRXCTEM.jpg?auth=52c1a1985de9389e1afc89d5323016bbd0141c01ef7498866b7ad4098676c750&amp;smart=true&amp;width=1920&amp;height=1078" type="image/jpeg" height="1078" width="1920"><media:description type="plain"><![CDATA[Dr. Tony Newman y su compañero capturados en el icónico vórtice temporal de la serie de ciencia ficción de Irwin Allen, 'El Túnel del Tiempo'.]]></media:description></media:content></item><item><title><![CDATA[IA-Ceno: de las “terras incógnitas” a las “mentes incógnitas”]]></title><link>https://www.infobae.com/tecno/atlas-ia/2026/03/26/ia-ceno-de-las-terras-incognitas-a-las-mentes-incognitas/</link><guid isPermaLink="true">https://www.infobae.com/tecno/atlas-ia/2026/03/26/ia-ceno-de-las-terras-incognitas-a-las-mentes-incognitas/</guid><dc:creator><![CDATA[Gustavo Beliz]]></dc:creator><description><![CDATA[Las transformaciones tecnológicas recientes plantean escenarios inéditos para la humanidad, donde la agencia digital altera formas de producción, interacción y conciencia, superando antiguos dilemas que dividían ciencia y ficción]]></description><pubDate>Thu, 26 Mar 2026 10:38:40 +0000</pubDate><content:encoded><![CDATA[<p>En los mapas antiguos, cuando se solía emprender una navegación, se tenían algunas coordenadas precisas, pero luego se navegaba a oscuras. Se descubrían nuevos continentes por casualidad, y también se tejían fábulas sobre los espacios desconocidos, bajo el nombre de <i>terras incógnitas</i>. Lo que no se conocía, se temía.</p><p>Monstruos de muchas cabezas, dragones mitológicos, seres mitad humano y mitad animales, centauros de toda naturaleza. Si nos acercamos más a la modernidad, las fronteras de la ciencia se asemejan también a las creaciones de Frankenstein, el Golem de Borges que se iba de las manos de su inspirador y todas las aproximaciones de la literatura fantástica. Hoy, la pelea entre la ciencia real y la ciencia ficción sigue firme, y borronea sus límites acaso más que nunca.</p><p>Nos podemos detener en un ejemplo del pasado.</p><p>El avance de la tecnología moderna permitió gracias al descubrimiento de América, pasar de la astrología a la astronomía, y de la alquimia a la química, entre otras cosas. Para muchos, ese es el comienzo de una nueva era, el <b>Antropoceno.</b></p><img src="https://www.infobae.com/resizer/v2/EXF5R5QO3BCZTIPVFV3M5JKN2Y.jpg?auth=45192d834dd9d56ac921c346796d8d608168241c96a1636975885bf1640f4bc3&smart=true&width=1920&height=1080" alt="Infografía de AcademIA Sapiens que ilustra los cinco continentes de la Inteligencia Artificial para el Desarrollo Humano, un mapa conceptual para micro-clases." height="1080" width="1920"/><h2>¿Antropo-qué?</h2><p>La era en que el ser humano comienza a influir decisivamente sobre la corteza terrestre y todo el ambiente que la rodea.</p><p>Quien inventó este término fue el Premio Nobel de Química <b>Paul Crutzen</b> y miembro, entre otras, de la Academia Pontificia de Ciencias del Vaticano. Se había dedicado especialmente al análisis de las radiaciones nucleares y los efectos sobre la capa de ozono de la acción humana. Pero la discusión ni empezó ni terminó con él. Muchos sostienen que también fue la revolución industrial, el surgimiento del capitalismo, la emergencia de internet, los avances de la biología sintética o las concentraciones altas de plutonio en los lagos y las aguas, la que dieron lugar a esta nueva era de la humanidad.</p><p>El Antropoceno, que fue minuciosamente estudiado en diversos informes del Programa de las Naciones Unidas para el Desarrollo, y que tuvo también fundamentales aportes desde el Vaticano, de la mano del Papa Francisco, y la promoción de la Encíclica Laudato Si.</p><img src="https://www.infobae.com/resizer/v2/JEQK7KX4CRHQ3DGSYCP2AZ4XRE.jpg?auth=14dd8733eddc15eb0bfcd55b450aa1ddc02d26706ece4de4614c27a209a9f380&smart=true&width=1920&height=2506" alt="Un experto de AcademIA Sapiens participa en las micro-clases para explorar el Atlas de Inteligencia Artificial para el Desarrollo Humano." height="2506" width="1920"/><h2>Paul Crutzen, el creador del término “Antropoceno”</h2><p>Por supuesto, aún la discusión académica no está cerrada. Los encargados de medir los impactos geológicos incluso niegan esta posibilidad de una nueva era geológica y hablan simplemente de “ciclos” de la naturaleza. Y en medio de estos cambios tectónicos en la corteza terrestre y en la atmósfera, se da otra explosión inminente: el surgimiento de la inteligencia artificial general -superior a todos los seres humanos-, como fuerza transformadora, sobre la cual también existen diferentes enfoques sobre el momento en el cual podrá arribar, y aún si esto será posible de modo general.</p><p>No se trata sólo de que la tierra se está calentando en el sentido más ecológico de la naturaleza. También hay un <b>calentamiento tecnológico global</b>, que tiene que ver con la fricción de la tecnología sobre nuestro ser, nuestro comportamiento, y hasta nuestra propia evolución como especie. </p><p>Por eso en la navegación que propongo en este nuevo mundo de la IA, hablo que se ha inaugurado una sub-época en el Antropoceno: el <b>IA Ceno</b>. La influencia de un “nuevo ser” sobre nuestro “ser” como humanidad. La inteligencia artificial, los agentes artificiales, las nuevas especies y sub-especies digitales. Sobre cuyo comportamiento, ni siquiera sus inventores tienen en claro cómo logran resultados a partir de los productos que emergen de las cajas negras de los algoritmos.</p><p>Este IA Ceno incluye al ser humano y su acción sobre el planeta, por supuesto: –con la minería de los metales raros que dan lugar a la fabricación de chips; con los satélites de última generación que permiten mejorar la conectividad; con los data centers que incrementan la capacidad de cómputo demandando enormes fuentes de energía… y tantos otros efectos positivos y negativos sobre la superficie de la tierra y más allá.</p><p>Pero hay otra <i>terra incógnita</i> que no se ha terminado de explorar y que ya está siendo afectada en la era del IA Ceno: nuestra mente, nuestra conciencia y nuestro cuerpo, hasta la mínima configuración genética. Con la edición de ADN, las manipulaciones en el comportamiento, el secuestro de la atención, la generación de procesos de inteligencia -y desinteligencias- colectivas y la limitación o expansión de nuestra capacidad de decidir.</p><p>A todo esto, se le suma la emergencia de la inteligencia organoide, donde tejidos humanos se traspasan a una computadora para dar lugar a una computación biológica con fronteras intensas con conceptos del transhumanismo.</p><h2>La triple agencia en la era del IA-Ceno</h2><p>Convivimos con tres tipos de “agencias” en este IA Ceno: </p><ul><li><b>La agencia humana plena</b>, que está desconectada en muchas áreas rurales de nuestro planeta y que ni siquiera tiene acceso a internet. (Lo cual es tanto problema como solución). </li><li><b>La agencia híbrida</b>, que desarrollamos al interactuar todo el tiempo con lo digital lo queramos o no, por el sólo hecho de caminar por cualquier de nuestras calles y ser captados por una cámara o por el sólo hecho de encender un teléfono celular. </li><li><b>Y la agencia autónoma</b>, puramente digital, que está constituida por grandes modelos de lenguaje de inteligencia artificial que pueden llegar a tomar decisiones por sí mismos, desalinearse del propósito para el cual fueron creados o simplemente rebelarse frente a sus dueños, negándose a ser apagados.</li></ul><p>Esto es lo que está en juego y se analiza en esta fascinante carta de navegación que es un Atlas de IA, en cuyo primer capítulo se analiza la necesidad de una <b>gobernanza Glocal (Global+Local)</b> para que esté al servicio de la humanidad, y no de su extinción.</p><h2>Entre las burbujas y las esperanzas</h2><p>Las comparaciones con el pasado también pueden rastrearse para comprender mejor lo que está en juego y el modo de comportarse de los líderes. Por ejemplo, pensemos un instante en <b>Cristóbal Colón</b>. Tuvo que desarrollar y organizar en el siglo XV la tecnología más avanzada de su época para el descubrimiento de las Indias (¡finalmente América!), tuvo que convencer con ingentes presupuestos públicos a quienes le financiaban sus viajes, hasta el punto de pretender fascinarlos en las cartas y relatos de sus travesías con un potencial descubrimiento del paraíso terrenal, donde todo era riqueza, naturaleza mansa y territorios maravillosos.</p><p>Hasta que terminó teniendo que reconocer una realidad de muy diversa naturaleza: las pestes que diezmaban sus tripulaciones, la violencia desatada frente a una conquista contradictoria y muchas veces cruel, la inclemencia del clima e incluso la escasez de tantas tierras preciosas que se pensaban abundantes.</p><p>Llevando esa imagen de colonialismo del pasado al presente, <b>¿no podríamos hablar hoy del riesgo de un colonialismo digital?</b> De una burbuja inflada de expectativas de parte de las grandes tecnológicas, que nos prometen el desarrollo de inteligencias superiores sin reparar en las limitaciones de energía, de conflictos geopolíticos, de tierras raras y de cadenas de producción sofisticadas. ¿No corremos incluso el riesgo de quedar encandilados por inversiones super-millonarias, que acaso no estén en condiciones de generar retornos suficientes como para poder pagar los endeudamientos que asumen?</p><img src="https://www.infobae.com/resizer/v2/ZFM6WBIEJ5DSDM2WNH6CYHPVAY.jpg?auth=2fd06d3ebf3d633773a4d143bce88b1991f4db34dc31a9bfe44d37b652a1bf1e&smart=true&width=1920&height=2948" alt="La portada del libro 'La Ciencia y la Técnica en el Descubrimiento de América' de Julio Rey Pastor, material de referencia para las micro-clases de AcademIA Sapiens." height="2948" width="1920"/><h2>La ciencia y la técnica en el descubrimiento de América ¿Una metáfora actual? </h2><p>¿Estamos frente a un ángel exterminador, o estamos frente a una imagen distorsionada del paraíso terrenal, que el gran Colón dibujaba con la forma de una tierra con forma de pera, en cuya cúspide estaban los mejores lugares para los seres humanos?</p><img src="https://www.infobae.com/resizer/v2/2ALZUNWWXNA6TAZXWOPSETEK2M.jpg?auth=4d2e44a254d17c9b130b9b377b0cec3820a2b56cdc31eb70ec26a193f09b57a6&smart=true&width=1920&height=1264" alt="La obra maestra de Miguel Ángel en la Capilla Sixtina, "La Tentación y Expulsión del Paraíso", capta los dramáticos momentos del pecado original y la consecuente expulsión de Adán y Eva." height="1264" width="1920"/><img src="https://www.infobae.com/resizer/v2/QWSUHTKQARFQPNNLOVJKV3IIHE.jpg?auth=b785af2615684e186d9775f95909a68f6def22f17ef0db228fce563430649c3a&smart=true&width=1920&height=1134" alt="La icónica representación del desembarco de Cristóbal Colón simboliza el inicio de nuevas exploraciones y descubrimientos, un tema recurrente en iniciativas como AcademIA Sapiens." height="1134" width="1920"/><p>En otra obra, “El Shock del Antropoceno”, de Christophe Bonneuil y Jean-Baptiste Fressoz, se habla de que tenemos que superar la versión vieja del mundo como “<i>un sistema natural con seres humanos molestándolo</i>”, hacia un “<i>sistema humano con eco-sistemas naturales y artificiales introducidos en su interior</i>”. Es decir que la batalla no se da hacia afuera de nuestra mente y cuerpo, sino en su interior. Y más que nunca, en el plano de una BIO-IA. </p><img src="https://www.infobae.com/resizer/v2/KLXU423S4JHKTGM2I6CEE4P3LU.jpg?auth=b3093c645bb3ebf11b950b9d004cf7269617aa1682581a0c7b5687ccb38373a4&smart=true&width=1920&height=2934" alt="La portada del libro "The Shock of the Anthropocene" por Christophe Bonneuil y Jean-Baptiste Fressoz, resalta temas cruciales para AcademIA Sapiens y el desarrollo humano frente a la inteligencia artificial." height="2934" width="1920"/><p>Las alertas no son pocas: corremos el riesgo de convertirnos en máquinas obsoletas o manipulables, si no actuamos al debido tiempo y con las debidas decisiones. La moneda está en el aire.</p><p>Depende de lo que hagamos como ciudadanos, como consumidores, como familias y -sobre todo-, lo que hagan los decisores públicos globales, para llegar a buen puerto en esta navegación que tiene aguas turbulentas, promesas de aguas cristalinas y de tierras de abundancia y que, a pesar de todas las extraordinarias transformaciones científicas de la actualidad, también tiene “terras incógnitas” de inteligencia artificial general frente a las cuales cuando se le preguntan a los principales tecnólogos mundiales qué ocurrirá el día que se descubran, la respuesta es: “<b>No lo sabemos”.</b></p><p>Es decir, es el ejemplo más brutal de que no sólo existen “terras incógnitas”, sino también “<b>mentes incógnitas</b>”.</p><h2>Tres preguntas éticas claves para el presente-futuro</h2><ol><li>En el caso de un automóvil autónomo, dónde se pone la responsabilidad en el caso de un choque: ¿en el conductor, en los desarrolladores del sistema, en el peatón que cruzó la calle inapropiadamente, en el software o en el hardware del nuevo modelo? </li><li>¿Qué ocurre si los autos autónomos generan mensos siniestros que los conductores humanos? Por ejemplo: si bajan las pólizas de seguro en comparación con los automóviles manejados no autónomamente. ¿Deberían los países de América Latina impulsar pruebas piloto en sus municipios sobre estas experiencias?</li><li>¿Qué diseño de política industrial-digital debería impulsar un país de América Latina cuando una gran empresa tecnológica anuncia la instalación de un proyecto minero o un data center en su territorio? ¿Qué margen de maniobra existe para evitar un colonialismo extractivista? ¿Hay manera de generar un ganar-ganar en dicho anuncio?</li></ol><h3>Lecturas complementarias</h3><p><a href="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean" target="_blank" rel="" title="https://www.undp.org/latin-america/digitalhub4/publications/atlas-artificial-intelligence-latin-america-and-caribbean">Atlas de Inteligencia Artificial para el Desarrollo Humano. Beliz, Gustavo, editor. Capítulo 1.</a></p><p><a href="https://gustavobeliz.com/la-gobernanza-glocal/" target="_blank" rel="" title="https://gustavobeliz.com/la-gobernanza-glocal/">Beliz, Gustavo. Una Gobernanza Local y Global para la IA. </a></p><p><a href="https://www.pas.va/content/dam/casinapioiv/pas/pdf-volumi/acta/acta28pas.pdf" target="_blank" rel="" title="https://www.pas.va/content/dam/casinapioiv/pas/pdf-volumi/acta/acta28pas.pdf">Academia Pontificia de Ciencias Sociales. Joaquim von Braun. Editor. </a></p><p><a href="https://darioamodei.com/machines-of-loving-grace" target="_blank" rel="" title="https://darioamodei.com/machines-of-loving-grace">Amodei, D. (2024). Machines of Loving Grace: How AI Could Transform the World for the Better. Dario Amodei. </a></p><p><a href="https://jmt.scholasticahq.com/article/154545-reclaiming-human-agency-in-the-age-of-artificial-intelligence" target="_blank" rel="" title="https://jmt.scholasticahq.com/article/154545-reclaiming-human-agency-in-the-age-of-artificial-intelligence">Dicasterio de Cultura y Educación de la Santa Sede. Reclamando la agencia humana en la era de la Inteligencia Artificial</a></p><p><a href="https://www.ucl.ac.uk/bartlett/sites/bartlett/files/final_iipp-wp2020-11-public_value_and_platform_governance_30_sep.pdf" target="_blank" rel="" title="https://www.ucl.ac.uk/bartlett/sites/bartlett/files/final_iipp-wp2020-11-public_value_and_platform_governance_30_sep.pdf">Mazzucato, M., Entsminger, J., &amp; Kattel, R. (2020). Public Value and Platform Governance: Mapping Value Creation and Extraction in the Platform Economy. </a></p><p><a href="https://www.undp.org/sites/g/files/zskgke326/files/migration/gt/undp_gt_hdr_2020_overview_spanish.pdf" target="_blank" rel="" title="https://www.undp.org/sites/g/files/zskgke326/files/migration/gt/undp_gt_hdr_2020_overview_spanish.pdf">Programa de las Naciones Unidas para el Desarrollo (2020). El desarrollo humano y el Antropoceno: Un panorama general.</a></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/EXF5R5QO3BCZTIPVFV3M5JKN2Y.jpg?auth=45192d834dd9d56ac921c346796d8d608168241c96a1636975885bf1640f4bc3&amp;smart=true&amp;width=1920&amp;height=1080" type="image/jpeg" height="1080" width="1920"><media:description type="plain"><![CDATA[Infografía de AcademIA Sapiens que ilustra los cinco continentes de la Inteligencia Artificial para el Desarrollo Humano, un mapa conceptual para micro-clases.]]></media:description></media:content></item></channel></rss>