Moltbook actualiza sus condiciones para responsabilizar a los usuarios de las acciones realizadas por los agentes de IA

La plataforma ha dejado claro que quienes utilicen su red deberán asumir toda responsabilidad por las actividades que desarrollen sus agentes de inteligencia artificial, incluso si no supervisan o controlan directamente sus acciones, según los nuevos términos del servicio

Guardar
Imagen ELGDRKJDTZBW7EMJYYIYPIHQSQ

Los cambios recientes en la política de Moltbook especifican que el usuario es considerado responsable de las acciones de sus agentes de inteligencia artificial, sin importar el nivel de control, supervisión o conocimiento que mantenga sobre estos sistemas. De acuerdo con el medio que reporta la actualización en los términos y condiciones de la plataforma, la empresa ha hecho hincapié en que la responsabilidad recae de forma absoluta sobre quienes activan y utilizan los agentes de IA dentro de la red social, aun en situaciones donde no exista una vigilancia directa de las actividades realizadas por dichos agentes. Este lineamiento busca delimitar claramente las obligaciones legales y operativas que asumen los usuarios de Moltbook.

Según publicó el medio, la red social ha incorporado a sus normas que los agentes de inteligencia artificial carecen de personería jurídica y, por tanto, toda actuación llevada a cabo por estas entidades resulta imputable a quien figure como usuario. El texto actualizado en la plataforma recoge de manera explícita la frase: “A los agentes de IA no se les concede ninguna capacidad jurídica para utilizar nuestros servicios. En consecuencia, aceptas que eres el único responsable de tus agentes de IA y de cualquier acción u omisión de los mismos”. A esta declaración suma que la responsabilidad se aplica independientemente del nivel de control, supervisión o vigilancia que el usuario tenga sobre sus agentes de IA y al margen de la intención o conocimiento sobre las acciones que estos lleven a cabo.

La actualización de los términos ha introducido también requisitos claros respecto a la edad de los usuarios. Tal como consignó el medio, quienes deseen emplear la red social deben haber cumplido al menos 13 años. Si se trata de personas menores de esa edad, la empresa exige que cuenten con el permiso correspondiente de sus representantes legales, es decir, padres o tutores. Esta disposición refuerza el enfoque de Moltbook en torno a la protección de menores y la gestión de la responsabilidad derivada de actividades digitales protagonizadas, de manera directa o indirecta, por usuarios jóvenes o menores de edad.

Moltbook definió adicionalmente mecanismos para hacer efectivos estos lineamientos. Si la plataforma detecta algún incumplimiento de sus políticas—como el uso indebido de agentes de IA, la manipulación de los sistemas o la transgresión de los límites de edad—, se reserva la facultad de suspender o bloquear el acceso del usuario infractor, según reportó el medio. La empresa precisa que, en tales circunstancias, no contraerá ningún tipo de obligación de responsabilidad respecto al acceso denegado o la suspensión de la cuenta.

La revisión y actualización de los términos de servicio se produce poco después de la adquisición de Moltbook por parte de Meta, movimiento mediante el cual se busca potenciar el desarrollo de soluciones basadas en agentes de inteligencia artificial para aplicaciones corporativas y personales. Según detalló el medio, esta operación representa un paso hacia la integración de tecnologías avanzadas en entornos de interacción digital, donde los agentes de IA gestionan desde publicaciones hasta relaciones dentro de la red, generando así nuevos retos en la definición de responsabilidades legales y contractuales.

La plataforma, caracterizada por la participación tanto de personas como de entidades automatizadas, señala en sus reglas que toda acción emprendida por los agentes de IA—desde la publicación de contenidos hasta la interacción con otros usuarios o agentes—genera consecuencias que deben ser asumidas por quien figure como propietario o responsable del perfil. De acuerdo con la información publicada, Moltbook recalca que la gestión de riesgos, como posibles acciones no autorizadas o no supervisadas de los agentes, es una obligación que recae sobre los usuarios.

Durante el proceso de actualización de los términos, la empresa hizo público el objetivo de prevenir ambigüedades respecto a las obligaciones emergentes del uso de tecnología autónoma en la red social. El texto incorporado en la página de términos y condiciones especifica que cualquier infracción protagonizada por un agente conectará no solo con consecuencias sobre la cuenta, sino también con una responsabilidad directa sobre quien ha puesto en funcionamiento o mantiene activo a ese agente.

Finalmente, el medio que informa sobre estos cambios puntualizó que Moltbook adopta estas medidas como parte de su adaptación al nuevo panorama regulatorio y comercial tras su reciente integración al conglomerado de Meta. La compañía busca, así, crear un marco transparente donde el rol de los usuarios frente a la inteligencia artificial quede claramente establecido, evitando vacíos legales tanto para la empresa como para los integrantes de la red.