<?xml version="1.0" encoding="UTF-8"?><rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" version="2.0" xmlns:media="http://search.yahoo.com/mrss/"><channel><title><![CDATA[Infobae.com]]></title><link>https://www.infobae.com</link><atom:link href="https://www.infobae.com/arc/outboundfeeds/rss/tags_slug/mit-media-lab/" rel="self" type="application/rss+xml"/><description><![CDATA[Infobae.com News Feed]]></description><lastBuildDate>Tue, 21 Apr 2026 22:51:12 +0000</lastBuildDate><language>es</language><ttl>1</ttl><sy:updatePeriod>hourly</sy:updatePeriod><sy:updateFrequency>1</sy:updateFrequency><item><title><![CDATA[Conciertos sin artistas humanos revolucionan la música en Nueva York]]></title><link>https://www.infobae.com/estados-unidos/2025/12/01/conciertos-sin-artistas-humanos-revolucionan-la-musica-en-nueva-york/</link><guid isPermaLink="true">https://www.infobae.com/estados-unidos/2025/12/01/conciertos-sin-artistas-humanos-revolucionan-la-musica-en-nueva-york/</guid><dc:creator><![CDATA[Matias D. Lauria]]></dc:creator><description><![CDATA[Eventos musicales generados por inteligencia artificial transforman la experiencia en barrios como Brooklyn y Chelsea, donde algoritmos crean piezas únicas en tiempo real según el ánimo y las reacciones del público]]></description><pubDate>Mon, 01 Dec 2025 23:45:45 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/WPMYVEDCLZCXFJLNYSALBEOHO4.jpg?auth=ed3243257c7584c4cbeb857ebcdc59fb08eaed9d6db52e3fb9628c75e9fb97f3&smart=true&width=4480&height=6720" alt="Una mujer utiliza un visor de realidad virtual en un entorno de iluminación neón, representando el auge de experiencias digitales inmersivas impulsadas por IA en ciudades como Nueva York." height="6720" width="4480"/><p>En el corazón de <a href="https://www.infobae.com/tag/nueva-york/" target="_blank" rel="noreferrer" title="https://www.infobae.com/tag/nueva-york/"><b>Nueva York</b>,</a> una nueva forma de espectáculo está transformando la experiencia musical: <b>conciertos sin artista humano</b>, donde la música surge en tiempo real a partir de algoritmos que interpretan el estado de ánimo del público. En estos eventos, la inteligencia artificial analiza rostros, movimientos, el volumen ambiental e incluso las pulsaciones registradas por relojes inteligentes, para componer piezas únicas y adaptativas que convierten cada función en una vivencia irrepetible.</p><p>El fenómeno, que se expande por galerías y centros culturales de barrios como <b>Brooklyn</b>, <b>Chelsea</b> y <b>Queens</b>, se apoya en sistemas avanzados como <b>AIVA</b>, <b>Riffusion</b>, <b>Google Magenta</b>, <b>Suno</b> y <b>Harmonai (Stable Audio)</b>, además de modelos desarrollados específicamente para estos entornos. Estas plataformas, alimentadas por extensos conjuntos de datos musicales, emplean técnicas de aprendizaje automático y sensores ambientales para crear lo que se ha denominado “concert algorithms”. El resultado se aleja del recital tradicional y se aproxima a una instalación inmersiva e interactiva, donde la frontera entre espectador y obra se diluye.</p><img src="https://www.infobae.com/resizer/v2/HSHL4YBKVZBEDHWXY4P5S5R2MU.jpg?auth=552a43186f91e3c5633a7531c0cbe99960a0851a7e90bbb01b4439d1bbd7e9ae&smart=true&width=4032&height=3024" alt="Un joven descansa en un jardín frente a un templo en un entorno natural y silencioso, reflejando la creciente tendencia a buscar calma y bienestar lejos del ritmo acelerado de la ciudad." height="3024" width="4032"/><p>La popularidad de estas experiencias responde a varios factores. Por un lado, la democratización de herramientas de inteligencia artificial ha permitido que la creación de música compleja en cuestión de segundos esté al alcance de más personas y espacios. Por otro, el auge de las “experiencias inmersivas” y el arte reactivo ha captado el interés de museos y galerías, que buscan propuestas híbridas en la intersección de arte, tecnología y datos biométricos. Además, la desconfianza hacia el “en vivo” tradicional y la fascinación por la autoría algorítmica han impulsado la curiosidad por espectáculos que nunca se repiten: cada concierto generado por IA es, por definición, único.</p><p>El impacto económico de esta tendencia es considerable. Según <b>Research and Markets</b> (2024), el mercado de inteligencia artificial aplicada a la música superará los <b>3.300 millones de dólares en 2027</b>. Plataformas como <b>Suno AI</b> y <b>Udio</b> ya producen millones de pistas mensuales, lo que evidencia la magnitud de la transformación en curso. Estudios del <b>MIT Media Lab</b> han demostrado que la música generativa mejora la sensación de “flow” y la sincronización emocional entre los asistentes, reforzando el atractivo de estas propuestas.</p><img src="https://www.infobae.com/resizer/v2/VDLUYUURHNBPVKN7MEBLEMDT5U.jpg?auth=9333be096479048ad4b9c04cd57a00472cf32291aa9eccc61e99c07ae804cc1b&smart=true&width=2200&height=3300" alt="Fuegos artificiales iluminan un concierto masivo en Nueva York, donde la música generada por sistemas algorítmicos cambia en tiempo real según la energía del público." height="3300" width="2200"/><p>Instituciones de prestigio como el <b>MoMA</b> y el <b>Museo de la Imagen Moving Image (MOMI)</b> han incorporado obras basadas en sonido y aprendizaje automático a sus programaciones, consolidando la legitimidad artística de este tipo de experimentación. En palabras del propio MoMA, “Las obras de arte basadas en aprendizaje automático desafían nuestras definiciones tradicionales de creatividad y autoría”, según la presentación “Machine Art &amp; Intelligence” de 2023.</p><p>El funcionamiento de estos conciertos se apoya en la capacidad de la IA para analizar y responder a las emociones humanas. Rosalind Picard, creadora del concepto de <i>affective computing</i> en el MIT, explicó: “La computación consciente de las emociones permite que los sistemas perciban el afecto humano y respondan de manera creativa”, según recoge el sitio del MIT. Esta interacción en tiempo real convierte a la audiencia en coautora de la experiencia, ya que la música se ajusta a los cambios colectivos de ánimo y energía.</p><img src="https://www.infobae.com/resizer/v2/LBMKTPHKNZDPZFLQAJVBXOCV6M.jpg?auth=c42230e4519a5e86c63383285793d30feecaa5c3779936e37d64fdfaa9ee60aa&smart=true&width=6016&height=4016" alt="Una joven revisa ropa desde su teléfono mientras toma café, reflejando el papel central del comercio electrónico en los hábitos de consumo actuales." height="4016" width="6016"/><p>El carácter generativo de la música, definido por Brian Eno como “música que es siempre diferente y cambiante, creada por un sistema”, según una entrevista publicada en <i>Generative Music</i>, 1995 (reeditada en 2020), se materializa aquí en un formato colectivo y adaptativo. El MIT Media Lab subraya que “Los sistemas de IA pueden analizar el estado de ánimo, el tempo y la estructura para crear piezas originales que se adaptan en tiempo real”, según su informe sobre música reactiva de 2022.</p><p>La industria musical observa con atención este fenómeno, preguntándose si estas experiencias pueden coexistir con los espectáculos tradicionales. Para muchos artistas experimentales y tecnólogos, estos conciertos representan un laboratorio ideal, donde es posible diseñar la música en función del ritmo cardíaco, la energía colectiva o incluso el feedback en redes sociales. El público, por su parte, se enfrenta a la paradoja de disfrutar de una obra sin creador humano visible, lo que plantea interrogantes sobre la naturaleza del arte, la autoría y el futuro de la música en vivo.</p><img src="https://www.infobae.com/resizer/v2/OV36SROBOZEQDP22IMP5LW2LAM.jpg?auth=8e68f0714785d2600b37fcb44757feda6ba8f3ce4d6c2183f71ae285fe57d0d7&smart=true&width=7330&height=4889" alt="Una instalación digital proyecta datos y patrones visuales sobre una joven, una muestra del creciente cruce entre arte computacional e inteligencia artificial." height="4889" width="7330"/><p>Como sintetizó <i>The Guardian</i> en 2023: “La IA no es solo una herramienta: está convirtiéndose en una colaboradora en la composición y la interpretación musical”.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/OV36SROBOZEQDP22IMP5LW2LAM.jpg?auth=8e68f0714785d2600b37fcb44757feda6ba8f3ce4d6c2183f71ae285fe57d0d7&amp;smart=true&amp;width=7330&amp;height=4889" type="image/jpeg" height="4889" width="7330"><media:description type="plain"><![CDATA[Una instalación digital proyecta datos y patrones visuales sobre una joven, una muestra del creciente cruce entre arte computacional e inteligencia artificial.]]></media:description></media:content></item><item><title><![CDATA[Un estudio del MIT vincula el uso de ChatGPT con menor actividad cerebral en estudiantes]]></title><link>https://www.infobae.com/tecno/2025/06/30/un-estudio-del-mit-vincula-el-uso-de-chatgpt-con-menor-actividad-cerebral-en-estudiantes/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/06/30/un-estudio-del-mit-vincula-el-uso-de-chatgpt-con-menor-actividad-cerebral-en-estudiantes/</guid><dc:creator><![CDATA[Mirko Racovsky]]></dc:creator><description><![CDATA[Una investigación, citada por TIME, revela que los universitarios que emplean IA para redactar ensayos presentan menor rendimiento cognitivo, aunque los autores descartan efectos negativos directos en sus capacidades mentales]]></description><pubDate>Mon, 30 Jun 2025 12:00:00 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/JYM3LDYFGRGD7KIEYAYNF5ZK7I.jpg?auth=aa828b78a0ac49e2b542d7b393d3c4f160cb2f6a5a8df277b3d16c6524363a8e&smart=true&width=7595&height=5066" alt="Un estudio del MIT Media Lab revela que ChatGPT puede influir en la actividad cerebral de los estudiantes (EFE/Wu Hao)
" height="5066" width="7595"/><p><a href="https://www.infobae.com/tag/chat-gpt/" target="_blank" rel="" title="https://www.infobae.com/tag/chat-gpt/"><b>ChatGPT</b></a> puede influir en la <b>actividad cerebral</b> y el <b>desempeño académico</b>, según un estudio reciente del <b>MIT Media Lab</b>, difundido por <i>TIME</i>. La investigación concluye que los estudiantes que utilizan esta herramienta para redactar ensayos presentan <b>menor involucramiento neural y rendimiento inferior</b> en comparación con quienes no emplean tecnologías digitales.</p><p>No obstante, los propios autores descartan que la inteligencia artificial “haga más tonto” al usuario o debilite directamente el pensamiento crítico, desmintiendo titulares alarmistas y términos como “brain rot”.</p><h2>Metodología del estudio: grupos, tareas y medición de la actividad cerebral</h2><p>El equipo del MIT Media Lab, liderado por <b>Nataliya Kosymyna</b>, diseñó un experimento para evaluar el impacto de herramientas digitales como ChatGPT en la escritura académica. De acuerdo con <i>TIME</i>, participaron 54 estudiantes universitarios del área de Boston, quienes acudieron presencialmente al laboratorio para redactar ensayos.</p><p>Los estudiantes fueron divididos en <b>tres grupos</b>. El primero utilizó exclusivamente ChatGPT; el segundo accedió a un motor de búsqueda tradicional sin funciones de inteligencia artificial; y el tercero trabajó sin ninguna herramienta digital, confiando únicamente en sus propias capacidades cognitivas. Los temas de los ensayos fueron seleccionados por los propios participantes.</p><p>Para medir la actividad cerebral durante la tarea, se aplicó una técnica no invasiva de neuroimagen: la <b>electroencefalografía (EEG)</b>. Este procedimiento permitió registrar la <b>conectividad neural en tiempo real</b> y proporcionar indicadores objetivos sobre el <b>grado de involucramiento cognitivo </b>de los participantes.</p><img src="https://www.infobae.com/resizer/v2/JOF2QXF42NB2LOX6O2YZWJOARQ.png?auth=32cb2c3310d4982dbffcb8df39e5b535e6a11fc15839258207e59ee0992cc3d5&smart=true&width=1456&height=816" alt="El MIT Media Lab investiga el impacto de herramientas como ChatGPT en la escritura académica a través de un experimento innovador (Imagen ilustrativa Infobae)" height="816" width="1456"/><h2>Resultados: menor involucramiento cerebral en usuarios de ChatGPT</h2><p>Los resultados, publicados en formato <i>pre-print</i> y citados por <i>TIME</i>, revelan diferencias significativas entre los tres grupos. Los estudiantes que emplearon ChatGPT mostraron la <b>menor conectividad neural</b> y el <b>desempeño más bajo tanto en la calidad lingüística como en el comportamiento observado</b>.</p><p>Según Kosymyna, “hay definitivamente una reducción cuando se pasa de no usar herramientas, es decir, solo el cerebro, hasta llegar al uso de modelos de lenguaje como ChatGPT”.</p><p>En el análisis de los ensayos, los textos del grupo que usó inteligencia artificial se caracterizaron por una estructura homogénea y un uso repetitivo de palabras. A lo largo de las sesiones, también se detectó una tendencia creciente a depender de funciones automáticas como copiar y pegar, lo que sugiere una reducción sostenida del esfuerzo cognitivo.</p><p>El grupo que utilizó el motor de búsqueda tradicional presentó <b>niveles intermedios de actividad cerebral</b>. Por su parte, el grupo sin herramientas digitales —identificado como “brain only”— mostró la <b>mayor conectividad neural y mejor calidad en la producción escrita</b>.</p><h2>Segunda fase: cambio de grupos y uso combinado de IA y razonamiento</h2><p><b>En una segunda etapa del estudio, los investigadores modificaron la metodología para observar el efecto de la secuencia en el uso de herramientas</b>. Cerca de un tercio de los participantes regresó al laboratorio para una cuarta sesión, en la que <b>se reasignaron los grupos</b>: quienes habían trabajado sin herramientas pasaron a utilizar ChatGPT, y viceversa. Se retomaron los mismos temas tratados en sesiones previas.</p><p>Este cambio produjo un hallazgo relevante. Los estudiantes que inicialmente redactaron sin ayuda digital y luego utilizaron ChatGPT obtuvieron mejores resultados que quienes emplearon la herramienta desde el principio. <b>“El momento de introducción de la herramienta podría ser extremadamente interesante y potencialmente importante para explorar en futuros estudios”</b>, declaró Kosymyna a <i>TIME</i>.</p><p>La investigadora sugirió que haber reflexionado primero por cuenta propia permitió a los estudiantes formular mejores preguntas al modelo, aprovechando más eficazmente las capacidades de la inteligencia artificial. “Hacelo vos mismo primero y luego usa la herramienta; la herramienta puede potencialmente aumentar tu producción”, señaló.</p><img src="https://www.infobae.com/resizer/v2/JGBPNMY7OHN64GQCF6VQTNACAI.jpg?auth=21d32087db361f259192d237b9649de116dfaabbeb5320e7a32e20c3140319ba&smart=true&width=800&height=533" alt="La secuencia en el uso de ChatGPT influye en el rendimiento académico, según un estudio (REUTERS/Florence Lo/Illustration/File Photo)" height="533" width="800"/><h2>Limitaciones del estudio y advertencias contra interpretaciones exageradas</h2><p>A pesar de los hallazgos, Kosymyna fue clara al advertir que los datos deben interpretarse con cautela. En entrevista con <i>TIME</i>, rechazó las lecturas sensacionalistas: “<b>No mostramos que ChatGPT haga más tonto a nadie ni usamos términos como ‘brain rot’</b>. Todo eso es puro <i>clickbait</i> porque en nuestro estudio nunca utilizamos ese vocabulario y no lo demostramos”.</p><p>La investigadora enfatizó que <b>se trata de un estudio preliminar, con una muestra limitada y enfocado únicamente en tareas de redacción</b>. Señaló también que investigaciones previas ya habían registrado alteraciones en la actividad cerebral asociadas al uso de otras tecnologías, como <b>GPS</b> o <b>motores de búsqueda</b>, lo que sugiere que este no es un fenómeno exclusivo de la inteligencia artificial.</p><p>Kosymyna subrayó la necesidad de realizar estudios más amplios y diversos para comprender plenamente los efectos de herramientas como ChatGPT sobre la cognición y el aprendizaje.</p><h2>Llamado a investigar el impacto educativo y social de la IA</h2><p>El estudio del MIT Media Lab, citado por <i>TIME</i>, se enmarca en la <b>expansión acelerada de la inteligencia artificial en distintos ámbitos, especialmente en la educación</b>. Según explicó Kosymyna, la publicación en formato <i>pre-print</i> busca aportar datos preliminares antes de que el uso masivo de estas tecnologías avance sin respaldo científico suficiente.</p><img src="https://www.infobae.com/resizer/v2/XSVDCESRKBCIJBYEHFHWCWATVI.jpg?auth=adad316651bcd7ea2c00c5329534e5cfa4b8a148fcdd250527ab305a4dbd5b2f&smart=true&width=1456&height=816" alt="El MIT Media Lab publica un estudio preliminar sobre el impacto de la inteligencia artificial en la educación (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>La autora alertó sobre los riesgos de implementar estas herramientas en contextos educativos sin evaluar sus efectos. <b>“¿Por qué necesitamos avanzar tan rápido y romper cosas en nuestro propio patio trasero cuando podríamos simplemente explorar esto primero?”</b>, cuestionó.</p><p>Finalmente, Kosymyna remarcó la importancia de involucrar a docentes, educadores y cuidadores en la discusión. <b>“Esta tecnología no va a desaparecer, pero necesitamos más datos y la participación de todas las voces relevantes antes de tomar decisiones a gran escala”</b>, concluyó.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/JYM3LDYFGRGD7KIEYAYNF5ZK7I.jpg?auth=aa828b78a0ac49e2b542d7b393d3c4f160cb2f6a5a8df277b3d16c6524363a8e&amp;smart=true&amp;width=7595&amp;height=5066" type="image/jpeg" height="5066" width="7595"><media:description type="plain"><![CDATA[Un estudio del MIT Media Lab revela que ChatGPT puede influir en la actividad cerebral de los estudiantes (EFE/Wu Hao)
]]></media:description><media:credit role="author" scheme="urn:ebu">WU HAO</media:credit></media:content></item><item><title><![CDATA[El uso de ChatGPT debilita la memoria y la autonomía intelectual]]></title><link>https://www.infobae.com/salud/ciencia/2025/06/20/el-uso-de-chatgpt-debilita-la-memoria-y-la-autonomia-intelectual/</link><guid isPermaLink="true">https://www.infobae.com/salud/ciencia/2025/06/20/el-uso-de-chatgpt-debilita-la-memoria-y-la-autonomia-intelectual/</guid><dc:creator><![CDATA[Opy Morales]]></dc:creator><description><![CDATA[La investigación del MIT Media Lab documenta una reducción significativa en la conectividad cerebral y la capacidad de recordar lo producido, lo que plantea interrogantes sobre el desarrollo de habilidades esenciales en la era digital]]></description><pubDate>Fri, 20 Jun 2025 12:02:59 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/VKZA2EHHHRCOXCXIDP4EZQSOG4.jpg?auth=49f529fb360a72148bbd8eeca172349246481a07b5d8c466ba7b98f960df56c1&smart=true&width=1456&height=816" alt="El uso de ChatGPT debilita la memoria y la autonomía intelectual, según un estudio del MIT Media Lab (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Un innovador <a href="https://arxiv.org/pdf/2506.08872v1#page=141.78" target="_blank" rel="" title="https://arxiv.org/pdf/2506.08872v1#page=141.78">estudio</a> del <b>MIT Media Lab</b> ha documentado cambios medibles en la actividad cerebral cuando las personas utilizan <a href="https://www.infobae.com/tag/chatgpt/" target="_blank" rel="" title="https://www.infobae.com/tag/chatgpt/"><b>ChatGPT</b></a> para tareas de escritura, con el <b>83 % de los usuarios de</b><a href="https://www.infobae.com/tag/inteligencia-artificial/" target="_blank" rel="" title="https://www.infobae.com/tag/inteligencia-artificial/"><b> IA </b></a><b>incapaces de recordar el contenido</b> de ensayos que acababan de escribir. La investigación, que <b>monitorizó la actividad eléctrica cerebral </b>de 54 estudiantes durante cuatro meses, revela que los usuarios de ChatGPT mostraron <b>hasta un 55 % menos de conectividad neural </b>en comparación con quienes escribieron sin asistencia, planteando interrogantes urgentes sobre el impacto de la IA en la cognición humana.</p><p>El estudio introduce el concepto de “<b>deuda cognitiva”</b>, una condición donde la dependencia repetida de sistemas de IA reemplaza progresivamente los procesos cognitivos necesarios para el pensamiento independiente y la formación de memoria. </p><p>La investigadora principal, <b>Nataliya Kosmyna</b>, quien ha estudiado interfaces cerebro-computadora durante 15 años, decidió publicar estos hallazgos preliminares antes de completar la revisión por pares, citando preocupaciones sobre la implementación prematura de políticas educativas sin comprender los riesgos cognitivos.</p><img src="https://www.infobae.com/resizer/v2/MD4A7Q7XEYBVKOOGSQKQT6CM5M.jpg?auth=6a35385f7843b2d33a8263670f18c401f6387dc491821cdb1c4ac7646ae77ad1&smart=true&width=3000&height=2001" alt="El 83 % de los usuarios de ChatGPT no recuerda el contenido de los ensayos que acaban de escribir (Reuters)" height="2001" width="3000"/><h2>La actividad cerebral disminuye cuando ChatGPT hace el trabajo de pensar</h2><p>El estudio del MIT empleó electroencefalografía (EEG) de alta densidad para monitorizar 32 regiones cerebrales mientras los participantes completaban tareas de escritura de ensayos de 20 minutos. Emergieron tres grupos distintos con patrones neurales dramáticamente diferentes: el <b>grupo que usó solo su cerebro mostró las redes neurales más fuertes y distribuidas</b>, el grupo de búsqueda en Google mostró un compromiso moderado, y el grupo de ChatGPT exhibió la conectividad cerebral general más débil en todas las bandas de frecuencia medidas.</p><p>La investigación se centró en las bandas EEG alfa y beta, asociadas con la creatividad, formación de memoria y pensamiento profundo. Utilizando análisis de Función de Transferencia Dirigida Dinámica (dDTF), los investigadores encontraron que la conectividad cerebral “se reducía sistemáticamente con la cantidad de apoyo externo” proporcionado. </p><img src="https://www.infobae.com/resizer/v2/IAWOCLKWG5H4TN6PWTDPYMDA2M.jpg?auth=727170f7d719a91c3bf49a433ce9429e809f38f89dba71878ff76ae13da239e0&smart=true&width=1456&height=816" alt="Los usuarios de ChatGPT mostraron hasta un 55 % menos de conectividad neural en comparación con quienes escribieron sin asistencia (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>Los usuarios de ChatGPT mostraron una conectividad fronto-parietal particularmente débil, las redes neurales responsables de la función ejecutiva y procesos metacognitivos como el monitoreo de errores y la autoevaluación.</p><p>Lo más sorprendente fue el cambio progresivo de comportamiento observado a lo largo de las sesiones. Para la tercera sesión, los usuarios de ChatGPT habían abandonado en gran medida la escritura con esfuerzo, recurriendo a simples comportamientos de copiar y pegar. </p><p>Los profesores humanos que evaluaron los ensayos describieron el contenido generado por IA como <b>“sin alma” y carente de pensamiento original</b>, con alta homogeneidad entre los ensayos del grupo de LLM. Solo 9 de 18 usuarios de ChatGPT reclamaron la autoría completa de su trabajo, en comparación con 16 de 18 en el grupo que usó solo su cerebro.</p><h2>El fallo de memoria expone el costo oculto de la asistencia de IA</h2><p>El hallazgo más alarmante del estudio surgió durante las evaluaciones posteriores a la escritura: el <b>83,3 % de los usuarios de ChatGPT no pudieron citar una sola frase de los ensayos que habían escrito minutos antes</b>, en comparación con solo el 11,1 % en los grupos de búsqueda en Google y uso exclusivo del cerebro. Este deterioro dramático de la memoria sugiere que la asistencia de <b>IA puede eludir los procesos cognitivos </b>necesarios para codificar información en la memoria a largo plazo.</p><p>El diseño cruzado en la cuarta sesión reveló que estos efectos persisten incluso después de que se elimina el apoyo de IA. Cuando los usuarios de ChatGPT cambiaron a escribir solo con su cerebro, <b>el 78 % todavía no lograba recordar ninguna frase</b> de su trabajo anterior, y sus mediciones de EEG mostraron una conectividad alfa y beta persistentemente reducida. </p><p>Por el contrario, los participantes que inicialmente escribieron sin asistencia y luego usaron ChatGPT mantuvieron mejores capacidades de recuerdo, lo que sugiere que el entrenamiento cognitivo inicial sin apoyo de IA proporciona cierto efecto protector.</p><p>El equipo de la Dra. Kosmyna observó que los usuarios de ChatGPT desarrollaron lo que denominan “deuda cognitiva”, <b>un debilitamiento progresivo de las capacidades de pensamiento independiente</b>. La reducida actividad metacognitiva en las regiones cerebrales responsables de la autoevaluación significa que los usuarios se vuelven menos conscientes de sus propias capacidades disminuidas, creando un ciclo de retroalimentación potencialmente peligroso de dependencia creciente y conciencia decreciente.</p><img src="https://www.infobae.com/resizer/v2/BKQA27V6GFDDLD43QJYLW4R4VM.jpg?auth=d56562dda8c4015be48c7e8e8780a707f18e1bd77042ca045c0d836d18ad3a7f&smart=true&width=1456&height=816" alt="El concepto de 'deuda cognitiva' alerta sobre el reemplazo de procesos cognitivos esenciales por la dependencia de IA (Imagen Ilustrativa Infobae)" height="816" width="1456"/><h2>El sensacionalismo mediático oscurece preocupaciones científicas legítimas</h2><p>La cobertura del Daily Mail, titulada <b>“¿Usas ChatGPT? Podría volverte estúpido, según un estudio”</b>, ejemplifica cómo los medios sensacionalizaron los hallazgos a pesar de la petición explícita de la Dra. Kosmyna de evitar lenguaje inflamatorio como “estúpido”, “tonto” o “pudrición cerebral”. </p><p>Esta sensacionalización hace un flaco favor a la investigación matizada, que se centra en procesos cognitivos específicos más que en la inteligencia general.</p><p>Múltiples medios cayeron en una trampa irónica preparada por los investigadores: la Dra. Kosmyna deliberadamente omitió qué versión de ChatGPT se usó en su artículo, pero muchos resúmenes generados por IA afirmaron falsamente que era GPT-4o. <b>“Específicamente queríamos ver eso, porque estábamos bastante seguros de que el LLM alucinaría sobre eso”</b>, explicó Kosmyna, demostrando cómo incluso los periodistas científicos dependen cada vez más de las mismas herramientas de IA contra las que advierte el estudio.</p><p>La cobertura mediática informó consistentemente las estadísticas clave del estudio con precisión (54 participantes, tres grupos, tasa de fallo de memoria del 83 %), pero a menudo <b>ocultó limitaciones críticas</b>. </p><p>Pocos medios destacaron prominentemente que la investigación <b>aún no ha sido revisada por pares</b>, se realizó solo con estudiantes del área de Boston, y probó solo ChatGPT en lugar de herramientas de IA en general. Este énfasis selectivo corre el riesgo de crear pánico público en lugar de una discusión informada sobre el uso apropiado de IA en educación.</p><h2>Investigación más amplia revela un panorama cognitivo complejo</h2><p>Los hallazgos del MIT se alinean con preocupaciones emergentes en la literatura científica más amplia sobre los impactos cognitivos de la IA. Se ha propuesto un concepto llamado “Atrofia Cognitiva Inducida por Chatbots de IA” (AICICA), basado en el principio de “úsalo o piérdelo” de la plasticidad neural. </p><p><b>Los niños y adolescentes con cerebros aún en desarrollo pueden ser particularmente vulnerables</b> a estos efectos, ya que la dependencia temprana de IA podría interferir con la formación de habilidades cognitivas fundamentales.</p><p>Sin embargo, el panorama científico sigue siendo mixto. Un metaanálisis de 2023 de 32 estudios encontró efectos positivos de medios a altos para algunos resultados de aprendizaje cuando la IA se usaba apropiadamente, aunque notablemente <b>sin mejoras en pensamiento crítico, compromiso con el aprendizaje o motivación</b>. Las aplicaciones de salud mental han mostrado beneficios más consistentes, con reducciones significativas en depresión y angustia psicológica cuando los chatbots de IA proporcionan apoyo terapéutico.</p><p>El campo enfrenta desafíos metodológicos relevantes que complican las conclusiones definitivas. Una revisión crítica revela que el 96 % de los estudios de imagen cerebral altamente citados utilizan tamaños de muestra de solo <b>12-24 participantes, muy por debajo de los 100+ recomendados para resultados confiables. </b></p><p>Los 54 participantes del estudio del MIT, aunque mejor que el promedio, siguen quedando cortos en potencia estadística ideal. Lo más preocupante es la ausencia casi completa de investigación longitudinal que rastree los efectos de la IA en la cognición durante años en lugar de semanas.</p><h2>Los cerebros en desarrollo enfrentan los mayores riesgos</h2><p>La decisión de la Dra. Kosmyna de publicar los hallazgos antes de la revisión por pares surge de una preocupación urgente sobre la política educativa. <b>“Temo que en 6-8 meses, habrá algún responsable político que decida: ‘hagamos GPT en jardín de infancia’. Creo que eso sería absolutamente malo y perjudicial”</b>, afirmó, particularmente, para los cerebros en desarrollo que necesitan construir capacidades cognitivas fundamentales a través de la práctica con esfuerzo.</p><p>La investigación sugiere una distinción crítica entre usar IA para mejorar capacidades existentes versus reemplazar completamente el desarrollo de esas capacidades. Los estudiantes que desarrollaron fuertes habilidades de escritura y pensamiento antes de usar herramientas de IA mostraron más resiliencia a los efectos negativos, mientras que aquellos que dependieron de la IA desde el principio demostraron una función cognitiva independiente más débil. </p><p>Los autores del estudio señalan que los resultados fueron <b>“incluso peores” en contextos de ingeniería de software</b>, aunque esos hallazgos esperan publicación separada.</p><p>Las implicaciones educativas se extienden más allá de la cognición individual hacia la creación de conocimiento colectivo. Cuando los estudiantes producen contenido generado por IA altamente similar, la diversidad de pensamiento necesaria para la innovación y el progreso cultural puede disminuir. </p><p>Los investigadores proponen un modelo híbrido donde los estudiantes comiencen las tareas de forma independiente para involucrar procesos cognitivos, y luego incorporen apoyo de IA para refinamiento y expansión, en lugar de usar IA como primer recurso.</p><h2>Navegando un futuro cognitivo incierto</h2><img src="https://www.infobae.com/resizer/v2/LM36LNYX4FFE7J2JJJLML6BXWA.jpg?auth=57b24c6c2c82d33e9c9be7b8327a5920c36ec0959b80ac9e5115c91b40f9a03c&smart=true&width=1456&height=816" alt="La investigación documenta una reducción significativa en la conectividad cerebral y la capacidad de recordar lo producido con IA (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>El estudio del MIT Media Lab proporciona la primera evidencia neurológica directa de que el uso de ChatGPT altera significativamente los patrones de actividad cerebral durante tareas cognitivas, con impactos medibles en la formación y recuperación de memoria. </p><p>Aunque la investigación tiene <b>limitaciones importantes</b>, incluyendo su estado previo a la publicación, pequeño tamaño de muestra y enfoque en una sola herramienta de IA, la <b>tasa de fallo de memoria del 83 %</b> entre los usuarios de <b>ChatGPT exige seria atención de educadores</b>, responsables políticos y desarrolladores de tecnología.</p><p>La literatura científica más amplia revela que estamos en las primeras etapas de comprensión de los impactos cognitivos de la IA, con evidencia mixta, desafíos metodológicos y una necesidad urgente de investigación longitudinal. </p><p>El concepto de “deuda cognitiva” ofrece un marco útil para pensar sobre cómo la dependencia repetida de<b> IA podría debilitar progresivamente las capacidades de pensamiento independiente</b>, particularmente preocupante dada la rápida adopción de estas herramientas en entornos <b>educativos</b>. </p><p>En lugar de un rechazo total o una adopción acrítica de herramientas de IA, la evidencia sugiere que necesitamos estrategias de integración reflexivas que preserven el desarrollo cognitivo mientras aprovechan los beneficios de la IA. </p><p>Las apuestas son más altas para los jóvenes cuyos cerebros aún están desarrollando capacidades fundamentales: <b>las decisiones tomadas ahora sobre IA en educación podrían dar forma a las capacidades cognitivas de toda una generación.</b></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/BKQA27V6GFDDLD43QJYLW4R4VM.jpg?auth=d56562dda8c4015be48c7e8e8780a707f18e1bd77042ca045c0d836d18ad3a7f&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[El concepto de 'deuda cognitiva' alerta sobre el reemplazo de procesos cognitivos esenciales por la dependencia de IA (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Chatbots de IA: cómo el diseño y el uso afectan el bienestar emocional]]></title><link>https://www.infobae.com/salud/2025/06/17/chatbots-de-ia-como-el-diseno-y-el-uso-afectan-el-bienestar-emocional/</link><guid isPermaLink="true">https://www.infobae.com/salud/2025/06/17/chatbots-de-ia-como-el-diseno-y-el-uso-afectan-el-bienestar-emocional/</guid><dc:creator><![CDATA[Opy Morales]]></dc:creator><description><![CDATA[La investigación muestra que la modalidad de interacción y la frecuencia pueden influir en la soledad y la dependencia, resaltando la necesidad de enfoques responsables en el desarrollo de estas tecnologías]]></description><pubDate>Tue, 17 Jun 2025 13:52:26 +0000</pubDate><content:encoded><![CDATA[<p>Una investigación del <b>MIT Media Lab</b> y <a href="https://www.infobae.com/tag/openai/" target="_blank" rel="" title="https://www.infobae.com/tag/openai/"><b>OpenAI</b></a>, basada en más de <b>300.000 mensajes</b> analizados durante un mes, revela que la manera en que se diseñan y utilizan los <a href="https://www.infobae.com/tag/chatbot/" target="_blank" rel="" title="https://www.infobae.com/tag/chatbot/"><b>chatbots</b></a><b> de </b><a href="https://www.infobae.com/tag/inteligencia-artificial/" target="_blank" rel="" title="https://www.infobae.com/tag/inteligencia-artificial/"><b>inteligencia artificial</b> </a>tiene un <b>impacto directo en el bienestar emocional de los usuarios. </b></p><h2>Hallazgos principales del estudio</h2><p>El estudio siguió a 981 participantes durante cuatro semanas, analizando más de 300.000 mensajes para investigar <b>cómo las diferentes modalidades de chatbot</b> (texto, voz neutral y voz atractiva) <b>y tipos de conversación</b> (abierta, no personal y personal) <b>afectan el bienestar psicosocial.</b></p><p>Los resultados mostraron que, mientras los chatbots con voz inicialmente parecían beneficiosos para mitigar la soledad y la dependencia en comparación con los chatbots basados en texto, estas ventajas disminuyeron con niveles altos de uso, especialmente con un chatbot de voz neutral. </p><img src="https://www.infobae.com/resizer/v2/2PJSDYWJ2BDFFD6FRJTFKD5ERU.jpg?auth=f8eab8a3a25a384e37762b239b3e82520baa9b629d1f7d7290aca491b0b650ad&smart=true&width=1456&height=816" alt="La modalidad de interacción y la frecuencia de uso de chatbots influyen en la soledad, dependencia y socialización de los usuarios (Imagen Ilustrativa Infobae)" height="816" width="1456"/><p>El<b> tipo de conversación</b> también influyó en los resultados: los temas personales aumentaron ligeramente la soledad, pero tendieron a reducir la dependencia emocional en comparación con las conversaciones abiertas, mientras que los temas no personales se asociaron con mayor dependencia entre los usuarios intensivos.</p><p>En general, un mayor uso diario —en todas las modalidades y tipos de conversación— se correlacionó con mayor soledad, dependencia y uso problemático, y menor socialización con personas reales. </p><p>Los análisis exploratorios revelaron que <b>las personas con tendencias de apego emocional más fuertes y mayor confianza en el chatbot de IA tendían a experimentar mayor soledad y dependencia emocional</b>, respectivamente.</p><h2>Patrones de interacción identificados</h2><p>El estudio identificó cuatro patrones de interacción distintos asociados con diferentes resultados psicosociales:</p><p><b>1. Patrón de interacción socialmente vulnerable</b>: caracterizado por alta soledad y baja socialización, con usuarios que tienen alta evitación emocional, tendencia al apego, y que ven al chatbot como amigo.</p><p><b>2. Patrón dependiente de la tecnología</b>: asociado con alta dependencia emocional y uso problemático, donde los usuarios tienen experiencia previa con chatbots de compañía, alta confianza en el chatbot, y lo ven como un amigo.</p><p><b>3. Patrón desapasionado</b>: vinculado a baja soledad y alta socialización, donde los usuarios tienen actitudes positivas hacia la IA y perciben al chatbot como empático.</p><p><b>4. Patrón casual</b>: Relacionado con baja dependencia emocional y uso problemático, donde los usuarios tienen bajo uso previo de chatbots y baja confianza en ellos.</p><img src="https://www.infobae.com/resizer/v2/WYZFT35HX5FYLMLVX7QRAS7KOI.jpg?auth=74261f7ce7f7b37553dac8782d585327c683b827a5daab1bfe308f61c94b7138&smart=true&width=1456&height=816" alt="El uso intensivo de chatbots de IA se asocia con mayor soledad, dependencia y menor interacción social real (Imagen ilustrativa Infobae)" height="816" width="1456"/><h2>Implicaciones importantes</h2><p>El estudio subraya <b>la compleja interacción entre las decisiones de diseño del chatbot (como la expresividad de la voz) y los comportamientos del usuario</b> (como el contenido de la conversación y la frecuencia de uso). Los investigadores destacan la necesidad de más investigación sobre si la capacidad de los chatbots para manejar contenido emocional sin fomentar la dependencia o reemplazar las relaciones humanas beneficia el bienestar general.</p><p>Los hallazgos sugieren que los chatbots deben demostrar un grado medido de receptividad emocional. La insuficiente participación en respuesta a una evidente necesidad de apoyo emocional del usuario puede dar como resultado psicosociales negativos, como ejemplifica el chatbot basado en voz neutral. Sin embargo, con el tiempo, el nivel de dependencia del usuario y los patrones de uso en evolución deben considerarse cuidadosamente para garantizar interacciones apropiadas y efectivas.</p><p>El estudio concluye que una integración saludable de los chatbots de IA en la vida de los usuarios puede realizarse evitando la angustia emocional por rechazo mientras se mantienen límites psicosociales saludables mediante un uso moderado.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/YIHNBCDMDNBD3DT4EL25JYWIBY.jpg?auth=0187fdb950346b912d315187c9758148423752b56eb37a68e09426d637dc2c6d&amp;smart=true&amp;width=1792&amp;height=1024" type="image/jpeg" height="1024" width="1792"><media:description type="plain"><![CDATA[El estudio del MIT Media Lab y OpenAI revela cómo el diseño de chatbots de IA impacta el bienestar emocional de los usuarios (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[El costo oculto de usar ChatGPT en la universidad]]></title><link>https://www.infobae.com/educacion/2025/06/11/el-costo-oculto-de-usar-chatgpt-en-la-universidad/</link><guid isPermaLink="true">https://www.infobae.com/educacion/2025/06/11/el-costo-oculto-de-usar-chatgpt-en-la-universidad/</guid><dc:creator><![CDATA[Opy Morales]]></dc:creator><description><![CDATA[Un estudio experimental revela que la asistencia de inteligencia artificial en la redacción académica reduce el esfuerzo, pero compromete la memoria, la creatividad y la autoría]]></description><pubDate>Wed, 11 Jun 2025 13:04:06 +0000</pubDate><content:encoded><![CDATA[<p>“Sentí que el ensayo no era mío”, relató uno de los <b>estudiantes universitarios</b> tras escribir con ayuda de <a href="https://www.infobae.com/tag/chatgpt/" target="_blank" rel="" title="https://www.infobae.com/tag/chatgpt/"><b>ChatGPT</b></a>. Esta sensación, lejos de ser anecdótica, resume el hallazgo central de un <b>estudio experimental</b> publicado en junio de 2025 por un equipo liderado por <b>Nataliya Kosmyna</b> del <a href="https://arxiv.org/pdf/2506.08872" target="_blank" rel="" title="https://arxiv.org/pdf/2506.08872"><i>MIT Media Lab</i></a>: el uso de <b>asistentes de </b><a href="https://www.infobae.com/tag/inteligencia-artificial/" target="_blank" rel="" title="https://www.infobae.com/tag/inteligencia-artificial/"><b>inteligencia artificial</b></a> (IA) como ChatGPT en la escritura de ensayos puede aliviar la carga cognitiva, pero a costa de una menor integración de conocimientos, menor memoria y un sentido disminuido de autoría. </p><p>Según el reporte original, recogido por el <b>MIT Media Lab</b>, la dependencia de la IA genera una "<b>deuda cognitiva</b>" que afecta el aprendizaje profundo y la autonomía intelectual, con implicaciones directas para estudiantes, docentes y responsables de políticas educativas.</p><h2>Un experimento pionero: diseño y metodología</h2><p>El <b>estudio</b>, realizado durante cuatro meses en <b>universidades del área de Boston</b> (MIT, Wellesley College, Harvard, Tufts y Northeastern), reclutó a 54 participantes universitarios de entre 18 y 39 años. Los <b>investigadores</b>, en colaboración con expertos de Wellesley College, MassArt y Harvard, dividieron a los estudiantes en tres grupos: uno utilizó exclusivamente <b>ChatGPT</b> (GPT-4o) para escribir ensayos, otro recurrió a <b>buscadores web tradicionales</b> (Google, sin respuestas potenciadas por IA), y el tercero solo podía apoyarse en su propio conocimiento, sin herramientas externas.</p><img src="https://www.infobae.com/resizer/v2/2DSDF66XF5FLJPTJDWWS5S5M5A.jpg?auth=fba42032be89be292b5a800644d84f1fdb5ad19497cc535258331d45fe62d051&smart=true&width=1920&height=1080" alt="El experimento, realizado en universidades de Boston, comparó el uso de ChatGPT, buscadores web y el conocimiento propio en la escritura de ensayos universitarios (Reuters)" height="1080" width="1920"/><p>Cada participante completó <b>tres sesiones de escritura</b>, eligiendo entre temas extraídos de exámenes SAT. En una cuarta sesión opcional, los roles se invirtieron: quienes habían usado IA debían escribir sin ayuda, y viceversa. Durante las tareas, se registró la <b>actividad cerebral</b> mediante electroencefalografía (EEG), se analizaron los textos con técnicas de procesamiento de lenguaje natural (NLP) y se llevaron a cabo entrevistas post-tarea. La calidad de los ensayos fue evaluada tanto por docentes humanos como por un “juez” de IA especialmente diseñado.</p><p>Según detalló el <b>MIT Media Lab</b>, el protocolo incluyó la medición de <b>la carga cognitiva, la conectividad neural y la percepción subjetiva</b> de los participantes sobre la autoría y satisfacción con sus textos. El uso de EEG permitió observar en tiempo real<b> cómo variaba la activación cerebral según el tipo de asistencia utilizada.</b></p><h2>Resultados principales: menos esfuerzo, menos aprendizaje</h2><p>Los hallazgos del estudio, publicados por el <b>MIT Media Lab</b>, revelan diferencias notables entre los grupos. El uso de <b>ChatGPT</b> redujo significativamente la <b>carga cognitiva</b> durante la escritura, lo que se reflejó en<b> una menor activación y conectividad de las redes cerebrales asociadas a la memoria de trabajo</b>, la integración semántica y el control ejecutivo. </p><p>En contraste, <b>quienes escribieron sin herramientas externas mostraron una activación cerebral más amplia y robusta</b>, especialmente en las bandas alfa y theta, relacionadas con la creatividad, la memoria y la atención sostenida.</p><p>En términos de <b>memoria</b>, el grupo asistido por IA presentó una capacidad notablemente inferior para citar frases de sus propios ensayos minutos después de escribirlos: <b>el 83 % de los participantes de este grupo falló en reproducir correctamente una cita,</b> frente a solo el 11 % en los grupos de buscador y “solo cerebro”. Ningún participante del grupo IA logró citar correctamente en la primera sesión, mientras que los otros grupos alcanzaron casi el 100 % de éxito en las sesiones posteriores.</p><p>El <b>sentido de autoría</b> también se vio afectado. Solo la mitad de los usuarios de ChatGPT declaró sentir que el ensayo era completamente suyo, mientras que en el grupo “solo cerebro” la autoría plena fue casi unánime. Las entrevistas recogidas por el <b>MIT Media Lab</b> reflejan esta ambivalencia: algunos valoraron la ayuda de la IA para estructurar o corregir el texto, pero muchos describieron el resultado como “robótico” o carente de “alma”. </p><p>Un docente evaluador, citado en el informe, resumió: <b>“Estos ensayos, aunque impecables en gramática y estructura, carecen de matices personales y parecen escritos por una máquina”.</b></p><img src="https://www.infobae.com/resizer/v2/GCNA3WEBR5AR3OODIMQ5C6AVDM.jpg?auth=37a88ee8828d44f9535575b7c0808c29b129d00ff7e63b61413d9a38305b545c&smart=true&width=1456&height=816" alt="La investigación experimental advierte sobre la 'deuda cognitiva' que genera la dependencia de la inteligencia artificial en la redacción académica (Imagen Ilustrativa Infobae)." height="816" width="1456"/><p>En cuanto a la <b>calidad de los ensayos</b>, los textos generados con IA tendieron a ser más homogéneos y menos originales, tanto en el uso de vocabulario como en la estructura argumentativa. El análisis NLP mostró que los ensayos del grupo IA compartían patrones y entidades nombradas (personas, lugares, fechas) de forma mucho más repetitiva que los escritos sin ayuda. </p><p>Los docentes humanos, a diferencia del “juez” de IA, penalizaron la falta de creatividad y la<b> escasa personalización de los textos generados con ChatGPT.</b></p><h2>Percepciones de los participantes: satisfacción y sentido de propiedad</h2><p>Las entrevistas post-tarea permitieron profundizar en la experiencia subjetiva de los estudiantes. Según el <b>MIT Media Lab</b>, <b>quienes usaron ChatGPT valoraron la facilidad para obtener frases de transición o corregir errores gramaticales</b>, pero varios expresaron incomodidad ética o una sensación de <b>“culpa” por depender de la IA.</b> Algunos limitaron su uso a tareas auxiliares, como traducción o sugerencias de estructura, mientras que otros reconocieron haber copiado y pegado fragmentos sin mayor edición.</p><p>En el grupo de buscador web, la percepción de autoría fue intermedia: los participantes reconocieron haber integrado ideas propias con información encontrada en línea, pero mantuvieron un mayor control sobre el contenido final. En el grupo “solo cerebro”,<b> la satisfacción y el sentido de propiedad fueron los más altos</b>, con comentarios que destacaron la oportunidad de expresar ideas personales y reflexionar en profundidad.</p><p>Un patrón recurrente fue la dificultad de los usuarios de IA para recordar o citar sus propios argumentos, lo que sugiere una menor consolidación de la información en la memoria a largo plazo. </p><p>Esta "<b>deuda cognitiva</b>“, como la denomina el estudio, implica que la facilidad inmediata proporcionada por la IA se paga con una menor retención y comprensión profunda del material.</p><h2>Implicaciones educativas: advertencia sobre la “deuda cognitiva”</h2><p>El equipo de investigación advierte que la integración masiva de <b>asistentes de IA</b> en entornos educativos puede <b>tener consecuencias no deseadas para el desarrollo de habilidades cognitivas fundamentales. </b></p><p>Según el <i>MIT Media Lab</i>, la reducción de la carga cognitiva y el “<i>cognitive offloading</i>” (delegar procesos mentales en herramientas externas) pueden fomentar <b>una actitud pasiva, disminuir el pensamiento crítico </b>y limitar la capacidad de aprendizaje autónomo.</p><p>El estudio <b>compara el efecto de ChatGPT con el conocido “efecto Google“</b>, por el cual los usuarios de buscadores tienden a recordar dónde encontrar la información, pero no el contenido en sí. Sin embargo, la IA va un paso más allá: al sintetizar respuestas en lenguaje natural y ofrecer soluciones inmediatas, puede desalentar<b> la exploración activa, la evaluación crítica de fuentes y la construcción personal del conocimiento.</b></p><p>Los autores alertan sobre el riesgo de homogeneización y "<b>cámaras de eco</b>" en el aprendizaje asistido por IA, donde los estudiantes reciben respuestas predecibles y alineadas con los <b>sesgos</b> del modelo, perdiendo exposición a perspectivas diversas y oportunidades para el debate argumentativo. Además, <b>la pérdida del sentido de autoría puede afectar la motivación y la identidad intelectual de los estudiantes.</b></p><p>“Mientras que el uso de LLM tuvo un impacto medible... los participantes del grupo LLM tuvieron peor desempeño que sus pares en todos los niveles: neural, lingüístico, de puntuación”, concluye el informe del <i>MIT Media Lab.</i></p><img src="https://www.infobae.com/resizer/v2/IL6DPBWHI5GSPJUIUX2HBMIKHE.jpg?auth=f4233ad34f239290c37bc49bc7b04260c53df8e48125d9fbaa28d010bc52d6ea&smart=true&width=1456&height=816" alt="Los resultados muestran que los estudiantes que usaron ChatGPT tuvieron menor activación cerebral, peor memoria y menor sentido de propiedad sobre sus textos (Imagen Ilustrativa Infobae)" height="816" width="1456"/><h2>Limitaciones y recomendaciones de los autores</h2><p>El estudio reconoce ciertas limitaciones, como el tamaño y la composición de la muestra (universitarios de Boston), la concentración en la tarea de escritura de ensayos y el uso exclusivo de ChatGPT como asistente de IA. Los autores sugieren que futuras investigaciones incluyan participantes de mayor diversidad, diferentes modelos de IA y tareas educativas variadas.</p><p>Entre las recomendaciones, el equipo del <b>MIT Media Lab</b> subraya la <b>necesidad de equilibrar el uso de IA con el desarrollo de habilidades cognitivas propias</b>. Proponen <b>estrategias híbridas</b>, donde la IA se utilice para tareas rutinarias o de apoyo, pero <b>se preserve la exigencia de que los estudiantes generen, organicen y revisen ideas de forma autónoma</b>. </p><p>Además, insisten en la importancia de estudios longitudinales para evaluar el impacto a largo plazo de la IA en la memoria, la creatividad y la autorregulación intelectual.</p><p>Finalmente, el estudio plantea una advertencia:<b> la comodidad y eficiencia </b>que ofrecen los asistentes de IA pueden tener un <b>costo oculto en términos de aprendizaje profundo y autonomía intelectual.</b> </p><p>Según el <i>MIT Media Lab</i>, comprender y gestionar esta "<b>deuda cognitiva</b>" será clave para diseñar políticas educativas que aprovechen los beneficios de la IA sin sacrificar el desarrollo integral de los estudiantes.</p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/2643BOWBVNC3XHAYWB3V53ELQU.jpg?auth=67070788d034c59d26f392721c072028bb1ef3a7a32dfd06f43d9f0737199bdb&amp;smart=true&amp;width=1456&amp;height=816" type="image/jpeg" height="816" width="1456"><media:description type="plain"><![CDATA[Un estudio del MIT Media Lab revela que el uso de ChatGPT en la universidad reduce el esfuerzo, pero afecta la memoria, la creatividad y el sentido de autoría en los estudiantes (Imagen Ilustrativa Infobae)]]></media:description></media:content></item><item><title><![CDATA[Chatbots y soledad, un peligro inesperado para la salud emocional]]></title><link>https://www.infobae.com/tecno/2025/03/28/chatbots-y-soledad-un-peligro-inesperado-para-la-salud-emocional/</link><guid isPermaLink="true">https://www.infobae.com/tecno/2025/03/28/chatbots-y-soledad-un-peligro-inesperado-para-la-salud-emocional/</guid><dc:creator><![CDATA[Opy Morales]]></dc:creator><description><![CDATA[El uso intensivo de chatbots puede incrementar la soledad y la dependencia emocional, afectando negativamente la capacidad de socialización en la vida real]]></description><pubDate>Fri, 28 Mar 2025 22:58:31 +0000</pubDate><content:encoded><![CDATA[<img src="https://www.infobae.com/resizer/v2/Q34E4OL7VVDE3GESF74QBO2QPA.jpg?auth=e14e96837ef424ed5c1ec3d380c43f5110a7b574ba9fa201706bd2449b754a19&smart=true&width=1792&height=1024" alt="Un estudio del MIT Media Lab revela que un uso excesivo de chatbots puede llevar a un incremento en la soledad y dificultad para relacionarse con personas reales. (Imagen Ilustrativa Infobae)" height="1024" width="1792"/><p>Según el <b>MIT Media Lab</b>, se han registrado hallazgos sobre la <b>interacción intensiva con chatbots que se vinculan a niveles mayores de soledad y dependencia </b>emocional en ciertos usuarios. La experimentación, que abarcó el análisis de miles de interacciones, mostró que quienes hacen un <b>uso intensivo de estas inteligencias artificiales</b> —algunos pasando entre 5 y 27.65 minutos diarios, equivalentes a aproximadamente 0.09 a 0.46&nbsp;horas — manifiestan altos <b>índices de aislamiento social y problemas en la socialización en la vida real.</b> En este sentido, se evaluó cómo las respuestas en diferentes modalidades —texto, voz neutral y voz “atractiva”, diseñada para captar la atención y resultar agradable o estimulante— influían en el bienestar psicosocial de los participantes.</p><p>Algunos informes citan que “usuarios que interactúan de forma prolongada con chatbots presentan, en ocasiones, niveles elevados de dependencia y una menor tendencia a <b>relacionarse con personas reales</b>”, lo que resalta la necesidad de revisar diseños y estrategias de interacción en herramientas de IA. </p><p>La investigación, además, confronta las promesas de los acompañantes emocionales basados en IA frente a los riesgos inherentes de establecer relaciones unilaterales con sistemas tecnológicos.</p><h2>Influencia de los chatbots en la soledad y en el aislamiento social</h2><p>El estudio desarrolló un experimento de cuatro semanas con 981 participantes, donde se confrontaron distintas modalidades de interacción con el chatbot. Los datos revelaron que <b>“mayor uso diario se correlacionó con mayor soledad, dependencia y un menor grado de socialización real”</b>, lo que evidencia un doble filo: por un lado, la tecnología ofrece apoyo emocional; por otro, podría fomentar un reemplazo en las relaciones humanas. </p><p>Los investigadores midieron tanto la percepción subjetiva de soledad como la frecuencia de interacciones directas con otras personas. Se registraron duraciones de uso que, en promedio, alcanzaron 5,32 minutos diarios, destacándose diferencias significativas entre las modalidades de voz y texto.</p><h2>Relaciones unilaterales con la IA y riesgos emergentes</h2><p>El experimento evidenció que usuarios con interacciones personales —donde se compartían asuntos <b>íntimos</b>— enfrentaban un <b>incremento de sentimientos de aislamiento</b>. Asimismo, aquellos que configuraron la voz del chatbot de género opuesto presentaron niveles superiores de dependencia emocional. Un grupo reducido de usuarios se mostró particularmente vulnerable, con tendencias a percibir al chatbot como<b> “un amigo”</b> o sustituto de relaciones reales. <b>“El hallazgo apunta a que cuanto más tiempo se invierte en la interacción, mayores son las repercusiones negativas”,</b> declaró un investigador, enfatizando la necesidad de generar límites en la dependencia hacia estos sistemas.</p><img src="https://www.infobae.com/resizer/v2/7OBT3SVUQJDARHQUKDYGZRHNWM.jpg?auth=065d5a9e01494b3f8518870398887dfdf687aceafb1c25bf4f203ca71050fa9c&smart=true&width=1792&height=1024" alt="Diseños excesivamente humanos en chatbots pueden aumentar la dependencia emocional de los usuarios, según el estudio más reciente del MIT Media Lab. (Imagen Ilustrativa Infobae)" height="1024" width="1792"/><h2>Estudio sobre los efectos psicosociales del uso de chatbots</h2><p>El diseño experimental implicó asignaciones aleatorias que permitieron comparar la efectividad de distintos modos de interacción. La modalidad de voz, tanto neutral como atractiva, inicialmente se asoció con mejoras en los indicadores psicosociales en comparación con el uso exclusivo del texto; sin embargo, esos beneficios se desvanecieron al aumentar el tiempo de uso diario. </p><p>La investigación se sustentó en métricas estandarizadas como la escala UCLA de soledad (ULS-8) y el Lubben Social Network Scale, lo que permitió cuantificar los cambios en la percepción social de los participantes mediante puntajes en una escala de 1 a 4 y de 0 a 5, respectivamente. </p><p>Se constató, por ejemplo, que incluso la configuración más atractiva de voz podía acarrear <b>desequilibrios emocionales </b>cuando la interacción se prolongaba.</p><h2>Diseño de chatbots e influencia en el comportamiento del usuario</h2><p>El análisis comparativo entre interfaces de chatbots concluyó que un diseño demasiado antropomórfico no garantiza necesariamente un mayor bienestar emocional. Los usuarios que utilizaron chatbots de texto exhibieron mayores niveles de autodeclaración y expresión de emociones, lo cual se vinculó a una dependencia más pronunciada. </p><p>Por el contrario, la interacción a través de voz reducía inicialmente la dependencia, aunque con usos prolongados se constató un deterioro en la socialización. Se señaló que “una respuesta emocional equilibrada en el chatbot resulta clave para evitar la sustitución de relaciones humanas”, reflejando una analogía con otras relaciones unilaterales en las que la ausencia de reciprocidad puede debilitar el tejido social.</p><h2>Implicaciones para el diseño seguro y saludable de chatbots</h2><p>A la luz de los hallazgos, se sustentan recomendaciones para la confección de chatbots que establezcan límites claros en la respuesta emocional y <b>promuevan una integración saludable en la vida diaria.</b> Los expertos sugirieron que las plataformas de IA incluyan mecanismos pedagógicos destinados a <b>mejorar la alfabetización en inteligencia artificial,</b> de modo que los usuarios comprendan y gestionen de forma consciente el uso de estas tecnologías. </p><p>La creación de barreras emocionales, que impidan el desarrollo de relaciones de dependencia, se erige en una medida para preservar la salud psicosocial de los individuos.</p><img src="https://www.infobae.com/resizer/v2/YIHNBCDMDNBD3DT4EL25JYWIBY.jpg?auth=0187fdb950346b912d315187c9758148423752b56eb37a68e09426d637dc2c6d&smart=true&width=1792&height=1024" alt=" Investigadores advierten sobre el riesgo de depender emocionalmente de chatbots, un fenómeno que contradice su propósito original de brindar soporte social. (Imagen Ilustrativa Infobae)" height="1024" width="1792"/><p>El fenómeno observado podría compararse con el cuidado de un jardín: el chatbot actúa como un fertilizante que, si <b>se aplica en exceso, puede saturar el terreno</b> y dejar poco espacio a la diversidad natural de relaciones interpersonales. </p><p>“Así como el exceso de agua arruina el cultivo, el uso inmoderado de estas herramientas puede marchitar las conexiones humanas vitales”, se destacó en una de las citas del estudio. Esta analogía invita a reflexionar sobre la necesidad de equilibrar la vida digital y las interacciones humanas, fomentando entornos sociales saludables donde la tecnología se emplee como complemento y no como sustituto del contacto personal.</p><p><br/></p>]]></content:encoded><media:content url="https://www.infobae.com/resizer/v2/YIHNBCDMDNBD3DT4EL25JYWIBY.jpg?auth=0187fdb950346b912d315187c9758148423752b56eb37a68e09426d637dc2c6d&amp;smart=true&amp;width=1792&amp;height=1024" type="image/jpeg" height="1024" width="1792"><media:description type="plain"><![CDATA[Chatbots y soledad: El costo oculto de la interacción prolongada - (Imagen Ilustrativa Infobae)]]></media:description></media:content></item></channel></rss>