El creador de ChatGPT pidió regular la Inteligencia Artificial: “Temo que esta esta tecnología cause un daño significativo a la sociedad”

Sam Altman, el director ejecutivo de OpenAI, hizo el pedido este martes al Senado de Estados Unidos

Guardar

Nuevo

El director general de la firma OpenAI, Sam Altman, habla durante una audiencia sobre Inteligencia Artificial de la Subcomisión Judicial del Senado sobre Privacidad, Tecnología y la Ley el martes 16 de mayo de 2023, en el Capitolio, en Washington, D.C. (AP Foto/Patrick Semansky)
El director general de la firma OpenAI, Sam Altman, habla durante una audiencia sobre Inteligencia Artificial de la Subcomisión Judicial del Senado sobre Privacidad, Tecnología y la Ley el martes 16 de mayo de 2023, en el Capitolio, en Washington, D.C. (AP Foto/Patrick Semansky)

Sam Altman, el director ejecutivo de OpenAI, creador de la interfaz ChatGPT, dijo el martes ante un panel del Senado de Estados Unidos que regular la inteligencia artificial (IA) es “crucial” para limitar los riesgos del uso de esta tecnología.

Altman, la última figura surgida del Silicon Valley, instó al Congreso a imponer nuevas reglas a las grandes empresas de tecnología, a pesar de las profundas divisiones políticas que durante años han bloqueado la legislación destinada a regular internet.

“Creemos que la intervención regulatoria de los gobiernos será crucial para mitigar los riesgos de modelos cada vez más potentes”, estimó el empresario de 38 años.

Es fundamental que la IA más potente se desarrolle con valores democráticos, lo que significa que el liderazgo de Estados Unidos es determinante”, apuntó al testificar sobre el impacto de la IA ante un subcomité judicial del Senado.

El lanzamiento de ChatGPT, en noviembre, aumentó el interés del público, pero también de las empresas, por la llamada IA generativa, es decir, aquella capaz de crear contenidos, textos, imágenes, sonidos o videos.

La IA generativa está desatando pasiones y muchos están preocupados por su impacto potencial en muchas profesiones, con posibles recortes masivos de empleos, y fundamentalmente en la sociedad en su conjunto.

(Reuters/Dado Ruvic)
(Reuters/Dado Ruvic)

“OpenAI se fundó con la creencia de que la inteligencia artificial tiene el potencial de mejorar casi todos los aspectos de nuestras vidas, pero también crea serios riesgos”, reconoció Altman.

“Uno de mis mayores temores es que nosotros, esta industria, esta tecnología, causemos un daño significativo a la sociedad”, dijo. “Si esta tecnología va por el camino equivocado, puede llegar bastante lejos. (...) Y queremos trabajar con el gobierno para evitar que eso suceda”.

El empresario recordó que si bien OpenAI, la entidad que desarrolló ChatGPT, es una empresa privada, está controlada por una organización sin fines de lucro, lo que la obliga a “trabajar para una distribución amplia de los beneficios de la IA y a maximizar la seguridad de los sistemas basados en IA”.

Altman ha expresado regularmente su apoyo al establecimiento de un marco regulatorio para la IA, preferiblemente a nivel internacional.

“Sé que parece ingenuo proponer algo así, parece muy difícil” de lograr, pero “hay precedentes”, aseguró, citando el ejemplo de la Agencia Internacional de Energía Atómica (OIEA).

Altman admitió que probablemente la IA afectará al mercado laboral, pero se mostró optimista en que a la larga, la tecnología generará mas empleos nuevos de los que destruirá.

FOTO DE ARCHIVO: El logotipo de OpenAI junto a una respuesta de su chatbot de IA ChatGPT en su página web, en una imagen de ilustración tomada el 9 de febrero de 2023. REUTERS/Florence Lo
FOTO DE ARCHIVO: El logotipo de OpenAI junto a una respuesta de su chatbot de IA ChatGPT en su página web, en una imagen de ilustración tomada el 9 de febrero de 2023. REUTERS/Florence Lo

“Somos tremendamente creativos”, confió el empresario.

Una invitada al evento, la directora de Privacidad y Confianza de IBM, Christina Montgomery, citó su propio puesto como ejemplo de un trabajo que no existía antes del desarrollo de la IA.

Altman también se mostró abierto a la sugerencia de que el Gobierno desarrolle laboratorios independientes para comprobar la fiabilidad de los modelos de inteligencia artificial, y que les darían una nota similar a la calificación nutricional de los alimentos.

El responsable de OpenAI admitió que sus productos todavía cometen errores, pero que con el tiempo se volverán más y más fiables.

Uno de los senadores impulsores de la audiencia, el republicano Josh Hawley, aseguró que la inteligencia artificial es “una de las innovaciones más significativas de la historia”, pero que todavía no está claro si será más parecida a la invención de la imprenta o a la de la bomba atómica.

Los congresistas defendieron que si bien es cierto que se necesita regulación pública, las empresas de IA como OpenAI no tienen que esperar al Congreso para instaurar mecanismos que permitan controlar el desarrollo de la tecnología para mitigar los daños.

A comienzos de mes, el Gobierno estadounidense anunció que invertirá 140 millones de dólares para establecer siete nuevos institutos de investigación de la inteligencia artificial que impulsarán la innovación responsable y asegurarán que los avances en la tecnología sirven al bien común.

Los centros se unirán a los 18 institutos de investigación sobre IA que ya están en funcionamiento en el país

Además, la Casa Blanca anunció que las grandes empresas de IA han aceptado someterse a una evaluación pública de sus sistemas durante el evento de “hackers” DEF CON 31, que se celebrará en Las Vegas a comienzos de agosto.

Durante la convención, miles de participantes analizarán si estos sistemas están alineados con la Carta de Derechos de la IA que ha propuesto el Gobierno estadounidense, y que incluye principios como la privacidad de los datos de los usuarios o la protección contra los algoritmos discriminatorios.

(Con información de AFP y EFE)

Seguir leyendo:

Guardar

Nuevo