
A medida que la inteligencia artificial (IA) adquiere niveles de sofisticación más altos, las voces de alerta dentro de la industria tecnológica se intensifican. Entre ellas, la del cofundador de Apple, Steve Wozniak, resuena con particular fuerza por su enfoque en los riesgos éticos y de seguridad.
En una entrevista con la BBC, Wozniak advirtió que la IA está “abierta a los malos jugadores, los que quieren engañarte sobre quiénes son”, en alusión directa al uso fraudulento que podría hacerse de sistemas capaces de replicar el lenguaje y el razonamiento humanos con altísima precisión.
La preocupación del ingeniero no es nueva. En otras ocasiones ha expresado su alarma sobre el potencial de la inteligencia artificial para facilitar estafas y campañas de desinformación. “La IA es tan inteligente que quedará a merced de malas personas”, mencionó.
Por qué la IA es un riesgo cuando cae en manos equivocadas

Wozniak sostiene que la inteligencia artificial no es peligrosa por sí misma, sino por el tipo de uso que ciertos individuos o grupos pueden darle. La capacidad de esta tecnología para generar contenido convincente y automatizado puede ser usada para fines ilegítimos, como campañas de manipulación política o fraudes personalizados.
Esta visión ha sido compartida por especialistas como Elena García Armada, referente española en robótica, quien advirtió que herramientas como ChatGPT pueden “producir textos altamente persuasivos”, lo que las convierte en vehículos ideales para la difusión de noticias falsas o contenidos engañosos.
La habilidad de estas plataformas para imitar el discurso humano con coherencia y naturalidad, incrementa el riesgo de suplantación de identidad o generación de confianza falsa.
De qué forma la IA puede aumentar la efectividad de las estafas

La advertencia no es meramente teórica. Wozniak ha enfatizado el peligro concreto que representa la IA al facilitar fraudes más creíbles. Su capacidad para escribir correos, mensajes o diálogos convincentes hace que los esquemas fraudulentos puedan escalar en alcance y efectividad.
El contenido generado automáticamente puede replicar el tono y estilo de una persona o empresa, haciendo casi imposible detectar el engaño sin herramientas especializadas.
También, la evolución de estas tecnologías ha disminuido las barreras de entrada para los ciberdelincuentes. Ya no es necesario contar con un equipo técnico sofisticado: basta con acceder a una plataforma pública de IA para producir contenido que antes requería conocimientos avanzados.
Este escenario ha encendido alarmas entre los expertos, que reclaman controles más estrictos y sistemas de autenticación que puedan verificar la procedencia de los mensajes.
Cuál es la probabilidad de que la IA reemplace a los humanos

Para Wozniak, la inteligencia artificial, por más avanzada que sea, no tiene la capacidad de experimentar emociones ni de replicar la conciencia humana.
En sus palabras, no cree que la IA pueda “reemplazar a los seres humanos”. Aun así, reconoce que su mal uso puede amplificar los efectos de acciones dañinas, al multiplicar su alcance y velocidad.
El problema, entonces, no radica en una supuesta autonomía de las máquinas, sino en su capacidad para ejecutar órdenes humanas de forma extremadamente eficiente.
Cuando esa eficiencia se aplica a actividades maliciosas, los efectos pueden ser desproporcionados, afectando tanto a individuos como a sociedades enteras. La IA no sustituye al ser humano, pero sí puede ser una extensión amplificada de sus peores intenciones.
Qué dicen otros expertos sobre el potencial de la IA

Una de las revelaciones más inquietantes del debate actual sobre inteligencia artificial proviene de Dario Amodei, CEO de Anthropic. El ejecutivo reconoció que “no tenemos ni idea de cómo funciona la inteligencia artificial”, una afirmación que deja al descubierto los límites del entendimiento científico sobre esta tecnología.
Esta opacidad preocupa no solo por su carácter técnico, sino porque dificulta prever sus efectos sociales y políticos. La complejidad de los modelos de IA, sobre todo los basados en aprendizaje profundo, ha generado una suerte de “caja negra” cuya lógica interna resulta casi indescifrable incluso para sus creadores.
Este desconocimiento debilita la capacidad de anticipar errores o desvíos, y alimenta el argumento de Wozniak sobre la necesidad de regulaciones que vayan más allá del control corporativo
Últimas Noticias
Sam Altman enfrenta las críticas por los sobrecostos billonarios de OpenAI: “es una apuesta a futuro”
El desafío de la empresa radica en convertir a más usuarios de ChatGPT en suscriptores pagos para aumentar los ingresos
La inferencia en inteligencia artificial: cómo revoluciona la banca, la medicina y la industria
Esta fase permite que esta tecnología pueda detectar fraudes bancarios en segundos, automatizar procesos empresariales y mejorar diagnósticos médicos, según AMD

El robot Optimus de Elon Musk se hace viral por correr tan natural como tu o como yo
El objetivo de Tesla con este dispositivo es producir hasta 10 millones de robots al año

Científica informática que trabajó en Meta indicó las claves para tener éxito con la IA
Tras liderar proyectos y fundar Yutori, Devi Parikh sintetizó las habilidades fundamentales para usar la inteligencia artificial. Una de ellas es aprender de la práctica

Descubre qué es lo que más gasta la batería del celular y protege tu dispositivo
Uno de los mayores responsables del gasto de batería son las aplicaciones móviles que siguen activas en segundo plano




