La inteligencia artificial ya es poderosa pero, ¿podrá tener ética algún día?

Al igual que las bases de datos usadas para su desarrollo, se propone que se alimenten a estos programas con “valores” para evitar eventos catastróficos

Compartir
Compartir articulo
La inteligencia artificial puede realizar actividades para las que son programadas, pero no han desarrollado un sentido de "moralidad" que permita tomar una decisión buena sobre otra mala. (Unsplash)
La inteligencia artificial puede realizar actividades para las que son programadas, pero no han desarrollado un sentido de "moralidad" que permita tomar una decisión buena sobre otra mala. (Unsplash)

Con el desarrollo actual que tienen las inteligencias artificiales y las habilidades que han adquirido gracias a la interacción con humanos, algunas personas han expresado sus temores con respecto a la continuidad de esta tecnología. El motivo principal es que, debido a las películas de ciencia ficción en las que una inteligencia artificial podía llegar a dominar al mundo, se están tomando medidas preventivas al respecto.

Aunque el CEO de OpenAI, Sam Altman, afirme en una entrevista reciente que los modelos de inteligencia artificial generativas (ChatGPT, Midjourney, DALL-E y otros) no tienen voluntad propia y más bien están a la espera de recibir una indicación por parte de un humano, lo cierto es que los escenarios más preocupantes tienen como protagonistas a las IA autónomas, que actúan de forma automática para la realización de tareas para las que fueron programadas.

Según la revista “Scientific American”, se han reportado casos en los que la inteligencia artificial se ha utilizado para hacer daño a la humanidad: sistemas que recomiendan contenido inadecuado o tóxico en redes sociales, drones militares guiados por IA que llegan a matar civiles sin razonamiento alguno, son solo casos aislados de un problema que podría crecer si no se desarrolla un sentido de “moralidad” en estos sistemas.

Para algunos, indica la publicación, los retos de la inteligencia artificial se encuentran en el futuro y se debería trabajar para evitar escenarios posibles que podrían afectar a la humanidad. Sin embargo, algunos científicos consideran que la prioridad debería estar centrada en resolver los problemas actuales, que ya son considerados como numerosos.

Algunos investigadores de inteligencia artificial consideran que se deben enfocar los esfuerzos en desarrollar métodos de prevención para hipotéticos eventos negativos causados por estos programas. (Freepik)
Algunos investigadores de inteligencia artificial consideran que se deben enfocar los esfuerzos en desarrollar métodos de prevención para hipotéticos eventos negativos causados por estos programas. (Freepik)

La investigadora de inteligencia artificial de la Universidad de Duke, Cynthia Rudin, dijo que “creo que tenemos problemas mucho peores ahora mismo”, pues los considera más reales que un futuro hipotético pues hasta el momento estos software no han ocasionado catástrofes a gran escala.

Sin embargo Jan Leike, investigador en OpenAI afirma que la prevención de un evento global generado por una inteligencia artificial ya es una preocupación en la actualidad y se está trabajando en reducir las posibilidades de que eso ocurra.

Inteligencia artificial y moral

Aunque actualmente la inteligencia artificial se encuentre en fase de desarrollo y requiere de varias bases de datos para “aprender” a generar sus resultados (y mejorar los que ya producen), ya existen ideas que proponen que se alimente a las IA con valores humanos además del conocimiento que ha sido adquirido por los humanos.

Algunas iniciativas para mejorar la interacción con las inteligencias artificiales consisten en la introducción de "valores" a estos sistemas a modo de bases de datos. (Andina)
Algunas iniciativas para mejorar la interacción con las inteligencias artificiales consisten en la introducción de "valores" a estos sistemas a modo de bases de datos. (Andina)

De esta forma, se pretende que este tipo de programas puedan “tomar mejores decisiones”, pero aún así se tiene la idea de que es posible que esos “valores” puedan ser utilizados de forma incorrecta, por lo que se buscará crear nuevos modelos que se basen en la seguridad en lugar de sistemas morales.

Necesidad del “contacto” humano

El CEO de OpenAI afirmó en una entrevista que, aún con los errores que se pueden presentar durante el uso de tecnología artificial como ChatGPT, la mejor forma de mejorarla constantemente es por medio del aprendizaje y el contacto con los humanos. Para Altman, esta es la mejor forma de desarrollar el potencial de estas herramientas y que al mismo tiempo, los humanos se adapten a su uso de forma gradual.

“Debemos entender que no sirve tenerlo todo en un laboratorio. Es un producto que debemos difundir y que haga contacto con la realidad y tener errores mientras los riesgos son bajos”, aseguró. También indicó que la adaptación progresiva de GPT-3 a GPT-4 y luego a posibles versiones futuras es mejor que iniciar el proceso desde hipotéticos GPT-6 o GPT-7.