
Algunos usuarios de Facebook revelaron que, hace unos días, vieron algunas recomendaciones de búsqueda un tanto inquietantes y sexualmente gráficas en esta plataforma, lo que llevó a la compañía a disculparse sin ofrecer una explicación completa.
Después de escribir "video de" en la barra de búsqueda de Facebook, algunas personas dijeron que la herramienta sugería términos obscenos relacionados con actos sexuales y el abuso infantil. Las predicciones de búsqueda del sistema están diseñadas para reflejar búsquedas populares, pero no está claro por qué aparecieron esas palabras.
"Sentimos mucho que esto haya sucedido", explicó la compañía a través de un comunicado. "Tan pronto como nos dimos cuenta de estas recomendaciones ofensivas, las eliminamos. Las predicciones de búsqueda de Facebook son representativas de lo que las personas pueden estar buscando en Facebook y no reflejan necesariamente el contenido real de la plataforma", agregó al respecto.
La compañía no permite imágenes sexualmente explícitas en su plataforma. Sin embargo, Facebook indicó que no sabe por qué esos términos de búsqueda aparecieron en la barra de búsqueda de los usuarios, aunque admitió que está investigando el asunto y ha puesto todos sus esfuerzos para mejorar esa función.
La semana pasada, Facebook tuvo que hacer frente a duras críticas tras la encuesta formulada por The Guardian donde se preguntaba a los usuarios si a los hombres se les debería permitir pedir fotos pornográficas a través de la plataforma social. La empresa señaló que esa encuesta fue un error.
Pero este nuevo capítulo, el de la búsqueda de videos, es el último ejemplo de las molestias que generan las características de autocompletar. Empresas tecnológicas, como Facebook y Google, las diseñaron para proporcionar un atajo para las personas que deseaban buscar algo. Se basan, en parte, en las búsquedas anteriores a los usuarios. Mientras que esas plataformas usan predicciones de búsqueda para ayudar a sus usuarios, las características también pueden elevar el comportamiento repugnante.
En 2016, Google, el motor de búsqueda que domina en el mundo, tuvo que cambiar su herramienta de autocompletar cuando los usuarios recibieron resultados ofensivos después de buscar información sobre mujeres y judíos. Sin ir más lejos, el año pasado, la empresa publicó términos de búsqueda sin sentido cuando uno buscaba información sobre el autor de la matanza masiva en Sutherland Springs, en Texas.
Facebook no respondió a las preguntas sobre su función de predicción de búsqueda y en qué información se basan las sugerencias.
Últimas Noticias
Lluvias intensas en el sur y sureste del país; frente frío número 48 se hará presente en el norte

Unión Europea condena asesinato de la defensora Cecilia Monzón

El ataque de furia de Andrey Rublev en Roland Garros: casi le pega un pelotazo a un asistente y destrozó una botella contra el piso

Por las elecciones presidenciales la JEP cambió la fecha de audiencia por secuestros a los antiguos jefes de las Farc

“¿Qué estamos haciendo? ¿Para qué estamos aquí?”: el crudo discurso de un senador tras la masacre en Texas
