
A medida que la inteligencia artificial (IA) adquiere niveles de sofisticación más altos, las voces de alerta dentro de la industria tecnológica se intensifican. Entre ellas, la del cofundador de Apple, Steve Wozniak, resuena con particular fuerza por su enfoque en los riesgos éticos y de seguridad.
En una entrevista con la BBC, Wozniak advirtió que la IA está “abierta a los malos jugadores, los que quieren engañarte sobre quiénes son”, en alusión directa al uso fraudulento que podría hacerse de sistemas capaces de replicar el lenguaje y el razonamiento humanos con altísima precisión.
La preocupación del ingeniero no es nueva. En otras ocasiones ha expresado su alarma sobre el potencial de la inteligencia artificial para facilitar estafas y campañas de desinformación. “La IA es tan inteligente que quedará a merced de malas personas”, mencionó.
Por qué la IA es un riesgo cuando cae en manos equivocadas

Wozniak sostiene que la inteligencia artificial no es peligrosa por sí misma, sino por el tipo de uso que ciertos individuos o grupos pueden darle. La capacidad de esta tecnología para generar contenido convincente y automatizado puede ser usada para fines ilegítimos, como campañas de manipulación política o fraudes personalizados.
Esta visión ha sido compartida por especialistas como Elena García Armada, referente española en robótica, quien advirtió que herramientas como ChatGPT pueden “producir textos altamente persuasivos”, lo que las convierte en vehículos ideales para la difusión de noticias falsas o contenidos engañosos.
La habilidad de estas plataformas para imitar el discurso humano con coherencia y naturalidad, incrementa el riesgo de suplantación de identidad o generación de confianza falsa.
De qué forma la IA puede aumentar la efectividad de las estafas

La advertencia no es meramente teórica. Wozniak ha enfatizado el peligro concreto que representa la IA al facilitar fraudes más creíbles. Su capacidad para escribir correos, mensajes o diálogos convincentes hace que los esquemas fraudulentos puedan escalar en alcance y efectividad.
El contenido generado automáticamente puede replicar el tono y estilo de una persona o empresa, haciendo casi imposible detectar el engaño sin herramientas especializadas.
También, la evolución de estas tecnologías ha disminuido las barreras de entrada para los ciberdelincuentes. Ya no es necesario contar con un equipo técnico sofisticado: basta con acceder a una plataforma pública de IA para producir contenido que antes requería conocimientos avanzados.
Este escenario ha encendido alarmas entre los expertos, que reclaman controles más estrictos y sistemas de autenticación que puedan verificar la procedencia de los mensajes.
Cuál es la probabilidad de que la IA reemplace a los humanos

Para Wozniak, la inteligencia artificial, por más avanzada que sea, no tiene la capacidad de experimentar emociones ni de replicar la conciencia humana.
En sus palabras, no cree que la IA pueda “reemplazar a los seres humanos”. Aun así, reconoce que su mal uso puede amplificar los efectos de acciones dañinas, al multiplicar su alcance y velocidad.
El problema, entonces, no radica en una supuesta autonomía de las máquinas, sino en su capacidad para ejecutar órdenes humanas de forma extremadamente eficiente.
Cuando esa eficiencia se aplica a actividades maliciosas, los efectos pueden ser desproporcionados, afectando tanto a individuos como a sociedades enteras. La IA no sustituye al ser humano, pero sí puede ser una extensión amplificada de sus peores intenciones.
Qué dicen otros expertos sobre el potencial de la IA

Una de las revelaciones más inquietantes del debate actual sobre inteligencia artificial proviene de Dario Amodei, CEO de Anthropic. El ejecutivo reconoció que “no tenemos ni idea de cómo funciona la inteligencia artificial”, una afirmación que deja al descubierto los límites del entendimiento científico sobre esta tecnología.
Esta opacidad preocupa no solo por su carácter técnico, sino porque dificulta prever sus efectos sociales y políticos. La complejidad de los modelos de IA, sobre todo los basados en aprendizaje profundo, ha generado una suerte de “caja negra” cuya lógica interna resulta casi indescifrable incluso para sus creadores.
Este desconocimiento debilita la capacidad de anticipar errores o desvíos, y alimenta el argumento de Wozniak sobre la necesidad de regulaciones que vayan más allá del control corporativo
Últimas Noticias
Los trucos poco conocidos de Google Maps que facilitan moverte mejor en la ciudad
La app ofrece información de accesibilidad que facilita los desplazamientos a personas con movilidad reducida

Qué es el circulo azul que sale en WhatsApp y cómo quitarlo
Este ícono identifica a Meta AI, el asistente de inteligencia artificial incorporado en la aplicación móvil

Android 17 permitirá a usuarios con pérdida auditiva personalizar implantes y audífonos
La nueva versión del sistema permitirá controlar cómo se reproducen notificaciones, alarmas y llamadas en audífonos conectados

WhatsApp: paso a paso para activar la cámara secreta de la app
Esta función facilita el acceso directo para tomar fotos o videos y compartirlos de inmediato con tus contactos

Dónde ver La Pasión de Cristo y más películas de Semana Santa en Xuper TV: la búsqueda prohibida
Este popular título se encuentra disponible en Netflix y Prime Video



