Qué herramientas usa Meta para desarrollar una inteligencia artificial generativa responsable

La compañía de Mark Zuckerberg trabaja para desarrollar una IA que ofrezca experiencias personalizadas y altamente interactivas de manera segura

Compartir
Compartir articulo
Meta está incorporando salvaguardias a las funciones y modelos de Inteligencia Artificial (IA) antes de lanzarlas. (REUTERS/Dado Ruvic)
Meta está incorporando salvaguardias a las funciones y modelos de Inteligencia Artificial (IA) antes de lanzarlas. (REUTERS/Dado Ruvic)

Meta, busca posicionarse como un líder en el campo del desarrollo de a Inteligencia Artificial, mediante la incorporación de funciones diseñadas para enriquecer sus plataformas como Instagram, Facebook y WhatsApp, para hacer de las interacciones digitales más sociales e inmersivas.

De hecho, a través de una colaboración estratégica con Microsoft, la tecnológica de Mark Zuckerberg ha lanzado más de 1.000 modelos de IA, bibliotecas y conjuntos de datos destinados a la comunidad investigadora, destacando Llama 2, su modelo lingüístico más avanzado.

Los modelos de IA personalizados que impulsan nuevas experiencias basadas en texto, como Meta AI,  se construyen sobre la base de Llama 2. (Meta)
Los modelos de IA personalizados que impulsan nuevas experiencias basadas en texto, como Meta AI, se construyen sobre la base de Llama 2. (Meta)

La finalidad de esta compañía estadounidense es crear experiencias personalizadas y altamente interactivas, como es el caso de sugerir actividades durante la planificación de viajes en chats grupales hasta facilitar la creación de material educativo adaptado a distintos estilos de aprendizaje.

Sin embargo, el conglomerado también reconoce los desafíos inherentes a la aplicación de IA generativa, incluyendo las respuestas inexactas o la potencial reafirmación de estereotipos basados en los datos de entrenamiento.

Cómo Meta prioriza la seguridad de la IA

Meta lleva más de una década siendo una empresa pionera en IA. (REUTERS/Dado Ruvic)
Meta lleva más de una década siendo una empresa pionera en IA. (REUTERS/Dado Ruvic)

En un esfuerzo por reforzar la seguridad y la responsabilidad en el uso de la Inteligencia Artificial (IA), Meta ha realizado la evaluación y mejora a través de especialistas, el entrenamiento en pautas de seguridad y responsabilidad, y el desarrollo de tecnologías para detectar contenidos que violan las políticas de la plataforma.

Asimismo, se ha comprometido a proteger la privacidad de los usuarios al no utilizar mensajes privados para entrenar sus sistemas de IA y para garantizar la efectividad de estas iniciativas, se ha colaborado en ejercicios de red teaming, dedicando miles de horas a la identificación y corrección de vulnerabilidades.

En cuanto a la refinación de modelos, esta práctica ha incluido entrenar sistemas para realizar tareas específicas, como la generación de imágenes de alta calidad con instrucciones que puedan aumentar la probabilidad de obtener respuestas útiles. También, se han entrenado para que ofrezcan recursos que cuentan con el respaldo de expertos en seguridad.

Qué herramientas hay para combatir la difusión de información errónea con IA

Se han introducido marcadores en las imágenes generadas o editadas por herramientas de IA de Meta. (Meta)
Se han introducido marcadores en las imágenes generadas o editadas por herramientas de IA de Meta. (Meta)

Meta también agregó herramientas para mejorar el entendimiento y la transparencia en el uso de su inteligencia artificial generativa con la incorporación de tarjetas de sistema y marcadores visuales en las imágenes.

Estas innovaciones proporciona herramientas para que los usuarios comprendan cómo interactuar con nuevas funciones ofrecidas por esta tecnología, por lo que su fin es educar para que sea mucho más sencillo identificar el contenido generado por la IA para prevenir la desinformación.

Además de incluir demostraciones interactivas, las tarjetas buscan aclarar a los usuarios la manera en que sus comandos pueden alterar los resultados obtenidos por estos modelos. También se han introducido marcadores en las imágenes generadas o editadas por herramientas de IA de Meta para garantizar que los usuarios sean conscientes de han sido creadas artificialmente.

Meta también se enfoca en combatir contenidos nocivos mediante la mejora de tecnologías como el Few-Shot Learner, que permite una respuesta rápida y efectiva ante nuevos tipos publicaciones perjudiciales.

Modelos lingüísticos grandes para mejorar cumplimiento de normas

La compañía de Mark Zuckerberg  trabaja para desarrollar una IA que ofrezca experiencias personalizadas y altamente interactivas de manera segura. (REUTERS/Carlos Barria)
La compañía de Mark Zuckerberg trabaja para desarrollar una IA que ofrezca experiencias personalizadas y altamente interactivas de manera segura. (REUTERS/Carlos Barria)

Asimismo, la compañía ha comenzado a probar modelos lingüísticos grandes (LLM) con el objetivo de mejorar el cumplimiento de sus normas comunitarias. Las pruebas iniciales sugieren que estos modelos podrían superar o al menos complementar las herramientas existentes, mostrando un futuro prometedor para la aplicación de políticas mediante la IA generativa.

Por otro lado, Meta aboga por el establecimiento de normas comunes en la industria para etiquetar los contenidos generados por IA, trabajando conjuntamente con otras empresas y organizaciones como el Partnership on AI para alcanzar este objetivo.

Aunque la falta de estándares uniformes es una preocupación creciente a medida que la inteligencia artificial avanza y su aplicación se convierte en una herramienta más común en diversos sectores.