
El Instituto de Tecnología de Massachusetts (MIT) ha creado un repositorio que documenta más de 777 riesgos asociados con la inteligencia artificial. Esta base de datos se organiza en 43 categorías, tales como desinformación, alucinaciones y ciberataques.
Los riesgos se pueden filtrar según dos taxonomías generales y se pueden acceder, modificar y actualizar fácilmente a través del sitio web (https://airisk.mit.edu/) y una hojas de cálculo de Google Sheets pública.
El repositorio ofrece una base de datos detallada y categorizada para abordar la falta de un entendimiento común sobre los riesgos de la IA, la cual “puede obstaculizar” la capacidad de académicos, auditores, legisladores, empresas de IA y el público en general para discutir, investigar y responder de manera integral al tema.

Cuáles son los riesgos de la IA según el MIT
Se realizó una primera clasificación de los riesgos de inteligencia artificial mediante una Taxonomía de Riesgos de IA por Dominio. Esta clasificación identifica siete áreas clave:
- Discriminación y toxicidad
Se refiere a cómo los modelos de inteligencia artificial pueden perpetuar estereotipos sociales y fomentar discriminación injusta. Esto ocurre cuando dichos modelos reproducen o amplifican lenguaje discriminatorio, generando desigualdades en el trato o en el acceso a recursos basadas en características sensibles como sexo, religión, género, orientación sexual, capacidad y edad.
- Privacidad y seguridad
Aborda los riesgos asociados con la generación de contenido por parte de los modelos de inteligencia artificial que puede incluir información personal sensible, un fenómeno conocido como filtración de privacidad. Esta situación puede resultar en la exposición no autorizada de datos privados, lo cual representa una amenaza considerable para la seguridad y privacidad de los usuarios.

- Desinformación
Estos daños incluyen la propagación de desinformación, contaminación, agotamiento de recursos, enfermedades mentales o injusticias, afectando negativamente a la sociedad.
- Actores malintencionados y uso indebido
Hace referencia al riesgo de que la inteligencia artificial sea utilizada por personas o grupos con intenciones dañinas para causar perjuicio a gran escala.
- Interacción humano-computadora
La quinta categoría, interacción humano-computadora, examina los riesgos asociados con la influencia negativa de la inteligencia artificial sobre los usuarios. Si un modelo de lenguaje (LM) promueve comportamientos o puntos de vista éticamente cuestionables, podría incentivar a los usuarios a realizar acciones perjudiciales que no habrían contemplado por sí mismos.

Este problema es particularmente alarmante cuando la IA se percibe como una autoridad o asistente confiable, ya que puede inducir a comportamientos dañinos sin que el usuario tuviera esa intención inicial.
- Daños socioeconómicos y ambientales
La categoría, daños socioeconómicos y ambientales, se refiere al impacto negativo de la inteligencia artificial en la sostenibilidad y el medio ambiente.
- Seguridad, fallos y limitaciones de los sistemas de IA
La séptima categoría, seguridad, fallos y limitaciones de los sistemas de IA, se refiere a los riesgos asociados con ataques que explotan vulnerabilidades en la inteligencia artificial para maximizar el consumo de energía y afectar el rendimiento del sistema.

Quiénes se involucraron en la creación del repositorio
Para desarrollar el repositorio, los investigadores del MIT colaboraron con expertos de la Universidad de Queensland, el Future of Life Institute (una organización sin fines de lucro), la KU Leuven y la startup de inteligencia artificial Harmony Intelligence. Juntos, exploraron bases de datos académicas y recopilaron miles de documentos relacionados con la evaluación de riesgos de la inteligencia artificial.
“Se trata de un intento de seleccionar y analizar rigurosamente los riesgos de la IA en una base de datos de riesgos públicamente accesible, completa, extensible y categorizada que cualquiera pueda copiar y utilizar, y que se mantendrá actualizada con el tiempo”, comentó Peter Slattery, investigador del grupo FutureTech del MIT y líder del proyecto del repositorio de riesgos de la IA, a TechCrunch.
“Lo creamos en este momento porque lo necesitábamos para nuestro proyecto y nos dimos cuenta de que muchos otros también lo requerían”, agregó.
Últimas Noticias
Alerta en Perú: el país ya concentra el 6% de ataques ‘ClickFix’ y así es como intentan robar tus datos
Este método de ingeniería social engaña a los usuarios con falsos mensajes de error que los llevan a ejecutar comandos maliciosos

El combo perfecto: todo lo que se sabe sobre instalar Windows en la nueva y barata MacBook Neo
El portátil de Apple admite virtualización por hardware y permite crear máquinas virtuales con sistemas operativos adicionales

Windows 11 no convence a usuarios de Windows 10: se niegan a migrar pese a insistencia de Microsoft
A pesar del fin del soporte oficial en 2025, Windows 10 continúa siendo utilizado por millones de personas

No fue el cajero automático el que eliminó empleos bancarios: fue el iPhone
Un ensayo del economista David Oks desmonta la parábola favorita de quienes minimizan el impacto laboral de la tecnología. La lección para la era de la inteligencia artificial es incómoda: lo que destruye empleos no es automatizar tareas, sino inventar un paradigma que las vuelve irrelevantes

El mercado de las criptomonedas: el abc de lo que necesitas saber
El bitcoin, una de las principales criptomonedas, registra un precio de 70.711,02 dólares




