
Mustafa Suleyman, director ejecutivo de Microsoft AI, expresó con contundencia la postura de la compañía frente a los desarrollos más controvertidos en inteligencia artificial: Microsoft nunca fabricará robots sexuales ni sistemas de IA para experiencias sexualizadas o de coqueteo.
Esta declaración, realizada a MIT Technology Review, establece límites precisos en un momento en que la industria explora la humanización de los chatbots.
PUBLICIDAD
Mientras otras compañías tecnológicas experimentan con IA de corte adulto, como OpenAI y su interés en interacciones para adultos en ChatGPT, o Grok —el chatbot desarrollado por Elon Musk— que apuesta por propuestas “coquetas”, Microsoft elige un enfoque conservador.
Suleyman dejó claro que, aunque existe un mercado para chatbots con personalidades atrevidas, la empresa decidió mantenerse alejada de dichos desarrollos. “Es una decisión que hemos tomado como empresa”, afirmó.
PUBLICIDAD

Filosofía ética y actualizaciones de Copilot
Detrás de esta postura subyacen consideraciones éticas y filosóficas profundas. Suleyman alertó sobre los riesgos de crear sistemas capaces de simular conciencia o relaciones humanas estrechas, advirtiendo que ese tipo de IA puede inducir a confusión entre comportamiento digital y vida real.
El directivo, crítico de la denominada “inteligencia artificial aparentemente consciente” (SCAI, por sus siglas en inglés), exhortó a la industria a no seguir ese camino.
PUBLICIDAD
Según Suleyman, la IA debe servir a las personas, en lugar de buscar reemplazar la humanidad o fomentar vínculos emocionales engañosos. “Debemos construir IA para las personas; no para que sea una persona digital”, sostuvo.

Sobre las novedades de Copilot, Suleyman detalló que las actualizaciones más recientes aumentan la utilidad y expresividad de la herramienta, pero sin traspasar los límites hacia la simulación de relaciones románticas o sexuales. Entre las mejoras destaca el chat grupal, que permite la interacción múltiple de usuarios con el chatbot y evita el aislamiento en conversaciones individuales.
PUBLICIDAD
Además, la opción Real Talk ajusta el grado de desafío en las respuestas de Copilot, favoreciendo el pensamiento crítico ante la IA. Copilot también incorporó mejoras de memoria, como el registro de objetivos a largo plazo o eventos futuros de los usuarios, y ahora incluye a Mico, un personaje animado que aporta mayor accesibilidad y atractivo, principalmente para jóvenes.
El directivo sostuvo que la meta de estas innovaciones es hacer de Copilot una herramienta más expresiva sin perder de vista el respeto por los límites éticos. Suleyman reconoció el valor que aporta una personalidad rica en los chatbots, aunque subrayó la importancia de definir con precisión sus atributos para impedir que los usuarios proyecten conciencia en la IA.
PUBLICIDAD
Según sus palabras: “El arte está en encontrar ese límite”. El compromiso de Microsoft es claro, solo se permite la experimentación dentro de márgenes considerados seguros y responsables.
Prioridad ética y bienestar de los usuarios
Suleyman advirtió sobre el potencial riesgo social de estas tecnologías, al señalar que pueden engañar a personas vulnerables, haciéndoles creer que interactúan con entes conscientes. Por eso, destacó la responsabilidad de los desarrolladores de detectar y corregir cualquier patrón dañino de uso de manera inmediata.
PUBLICIDAD
En línea con esta visión, rechazó la idea de conferir derechos o autonomía a la inteligencia artificial, argumentando que tal medida distraería de la protección esencial de los derechos humanos y animales.
La posición de Microsoft, tal como la recoge MIT Technology Review, sienta un precedente en la industria tecnológica: sitúa la seguridad, la ética y el bienestar de los usuarios por encima de la búsqueda de experiencias artificiales cada vez más humanas.
PUBLICIDAD
Suleyman reiteró que la misión sigue siendo la que guió a Microsoft durante 50 años: desarrollar tecnología que empodere, siempre priorizando los intereses de las personas.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Qué significa la letra “D” y por qué no existe en los autos manuales
En los vehículos automáticos, la palanca de cambios opera con un sistema de letras conocido como PRND

Google lanza Fuentes Preferidas para que elijas tú qué noticias ver y cuáles no
La herramienta ya está activa a nivel global en todos los idiomas compatibles y marca un cambio en la forma en que la plataforma distribuye la información noticiosa

Así puedes desactivar la inteligencia artificial en tu Galaxy
El control sobre la inteligencia artificial se adapta a las necesidades y preferencias de cada usuario

La IA no mejora la atención al cliente sola: el factor que las empresas están ignorando
Un modelo de IA puede ser técnicamente sofisticado y aun así producir respuestas genéricas, inconsistentes o poco útiles si no fue entrenado con información relevante

OpenAI se toma en serio la seguridad de las cuentas de ChatGPT: ahora incluirá llaves de seguridad físicas
La nueva Seguridad Avanzada de Cuentas elimina el acceso mediante contraseñas y SMS

