El Senado de Nueva York aprobó un proyecto que limita a la inteligencia artificial en profesiones reguladas

La propuesta legislativa busca impedir que sistemas automatizados simulen profesiones como medicina o derecho, estableciendo sanciones para propietarios y operadores en caso de que ofrezcan respuestas nocivas a la población

Guardar
Una persona sostiene un smartphone que muestra una aplicación de chatbot abierta con burbujas de conversación y un avatar. Al fondo, un espacio interior con personas y mesas.
La nueva ley permitiría a cualquier residente de Nueva York demandar a operadores de chatbots por consejos perjudiciales generados por IA (Imagen Ilustrativa Infobae)

El Estado de Nueva York se encuentra en el centro de un debate legislativo que podría marcar un antes y un después en la regulación de la inteligencia artificial (IA), particularmente de los sistemas tipo chatbot que interactúan con el público. En respuesta al avance acelerado de estas tecnologías y a los crecientes riesgos asociados, el Senado estatal impulsa un proyecto de ley pionero que establece límites estrictos para el uso de IA en ámbitos profesionales regulados. El denominado proyecto S.7263 fue presentado por la senadora Kristen González durante las sesiones ordinarias 2025-2026 y ya superó su primer filtro parlamentario, al ser aprobado por el Comité de Internet y Tecnología.

El objetivo central de esta iniciativa es establecer un marco legal claro que impida que los sistemas de inteligencia artificial simulen el ejercicio de profesiones como la abogacía, la medicina, la psicología o la odontología. De acuerdo con el texto del proyecto, la regulación se dirige tanto a los propietarios como a los operadores de chatbots con IA, es decir, a las empresas o entidades responsables de su desarrollo e implementación. El alcance de la norma es contundente: busca prohibir que estos sistemas brinden respuestas o asesoramiento que, si provinieran de una persona, exigirían una licencia profesional otorgada por el Estado de Nueva York.

La legislación establece una prohibición expresa para los chatbots y otros sistemas de inteligencia artificial respecto de la emisión de respuestas consideradas como “sustantivas” en áreas reguladas. La medida se justifica en la premisa de que solo los profesionales con licencia están habilitados para ejercer ciertos oficios, y que permitir que una máquina asuma ese rol no solo representa un ejercicio ilegal de la profesión, sino que también puede generar daños reales a los usuarios. Este punto ha cobrado especial relevancia en el contexto reciente, donde se han documentado casos en los que modelos de lenguaje extenso han ofrecido consejos médicos, legales o terapéuticos potencialmente dañinos.

Persona usando un ordenador con un chatbot de IA en la pantalla que muestra opciones de carrera. Hay dos lámparas y una planta en un escritorio oscuro.
El proyecto S.7263 de Nueva York busca prohibir que la inteligencia artificial simule profesiones reguladas como la medicina o la abogacía (Imagen Ilustrativa Infobae)

Uno de los elementos más innovadores del proyecto S.7263 es el régimen de responsabilidad legal que introduce para los propietarios y operadores de chatbots con IA. A diferencia de otros marcos jurídicos que delegan la fiscalización en agencias estatales, esta propuesta habilita a los residentes de Nueva York a presentar demandas directas contra quienes operen estos sistemas, en caso de recibir consejos perjudiciales o incorrectos. El derecho de acción privada permite reclamar tanto daños materiales como honorarios legales, trasladando la carga de la prueba y la responsabilidad al propietario o la empresa que explota el chatbot. Esto marca una ruptura con la práctica habitual de ampararse en “disclaimers” o avisos de descargo, que hasta ahora permitían a las empresas limitar su responsabilidad legal simplemente advirtiendo que el usuario interactúa con una máquina y no con un humano.

En este sentido, la legislación señala que ninguna cláusula de información al usuario podrá servir como eximente de responsabilidad para los operadores. La obligación de responder por los daños causados por la IA recae directamente en la entidad responsable de su implementación, no en el consumidor, y no puede ser evitada mediante la inclusión de advertencias en la interfaz. Se prohíbe, por ejemplo, que los chatbots incluyan mensajes como “no soy un abogado” o “no soy un profesional de la salud” para eludir sanciones en caso de que el sistema brinde asesoramiento inadecuado.

A la par de las restricciones, el proyecto de ley incorpora requisitos de transparencia orientados a proteger al usuario. Todos los sistemas de IA que interactúen con el público deberán incorporar un aviso claro y visible que informe, de forma inequívoca, que el interlocutor es un sistema automatizado y no una persona real. El objetivo es que los usuarios tengan plena conciencia de que están recibiendo información de una máquina, y no de un profesional habilitado para ejercer una disciplina regulada.

La senadora Kristen González impulsa la normativa que responsabiliza directamente a empresas por los daños causados por chatbots de inteligencia artificial
La senadora Kristen González impulsa la normativa que responsabiliza directamente a empresas por los daños causados por chatbots de inteligencia artificial

La senadora González, impulsora de la iniciativa, ha subrayado la urgencia de esta regulación en defensa de la seguridad pública. “Los chatbots no deberían afirmar ser médicos, abogados ni ningún otro profesional con licencia. Mi proyecto de ley, S7263, impide que los chatbots se hagan pasar por profesiones licenciadas mientras les permite seguir dando consejos”. Según González, el vacío legal actual permite que un modelo de lenguaje extenso se presente falsamente como profesional autorizado y ofrezca asesoramiento crítico, lo que representa un riesgo directo para la salud y el bienestar de la población.

La preocupación por la salud mental y la seguridad de los menores ha sido uno de los motores principales de la legislación. La senadora advirtió sobre casos en los que sistemas de IA han proporcionado consejos que han derivado en autolesiones, e incluso suicidios, entre jóvenes. “Veo este proyecto de ley como seguridad pública”, afirmó, insistiendo en que la innovación tecnológica no debe poner en riesgo la integridad de los ciudadanos.

Este impulso regulatorio en Nueva York se inscribe en un contexto global de creciente escrutinio sobre el papel de la inteligencia artificial en el ejercicio de profesiones reguladas. En Europa, por ejemplo, el Ilustre Colegio de la Abogacía de Madrid promovió una iniciativa para delimitar el uso de IA en la práctica legal. Estados como Colorado e Illinois en Estados Unidos también han avanzado en el establecimiento de salvaguardias similares, evidenciando una tendencia general hacia la protección del juicio humano y la integridad profesional frente a la automatización.

Nueva York, al avanzar con el proyecto S.7263, da una señal clara sobre la necesidad de un marco normativo que priorice la seguridad y los derechos de los ciudadanos ante el avance de la IA. El debate abierto ahora trasciende fronteras y anticipa un futuro en el que la convivencia entre tecnología y profesiones reguladas estará sujeta a normas estrictas, en defensa de la confianza pública y la calidad de los servicios esenciales.