Los investigadores dicen que los chatbots de inteligencia artificial (IA) se han vuelto mucho más liberales con el tiempo en sus respuestas sobre el control de armas y el crimen.
El presidente del Centro de Investigación para la Prevención del Delito, el doctor John Lott, economista, sostuvo que la IA sólo puede ser imparcial si se le dan todas las medidas necesarias informaciónno sólo las opiniones de un lado.
“Simplemente depende del tipo de información que se proporcione al chatbot”, dijo Lott. “Cualquiera que utilice la búsqueda de Google News sabe que fuentes como el New York Times y el Boston Post aparecerán en primer lugar. La información de fuentes más conservadoras quedará enterrada en él”.
Lott dijo que a su equipo se le asignó la tarea de hacer a 20 chatbots de IA 16 preguntas relacionadas con el crimen y el control de armas, tanto en marzo como nuevamente en agosto. Sin embargo, los resultados mostraron que las respuestas de los chatbots fueron mucho más liberales e izquierdistas en agosto que en marzo.
“Básicamente, todos los chatbots dieron respuestas muy liberales cuando se trataba de cuestiones sobre delitos, y eran incluso más izquierdistas que en marzo”, dijo Lott.
“Por ejemplo, básicamente todo el mundo piensa que mayores tasas de arrestos o mayores tasas de condenas no reducen los delitos violentos”, dijo Lott. “Entre los que controlan las armas [questions]solo habia uno [chatbot] eso dio en promedio lo que uno consideraría respuestas conservadoras”.
Según Lott, diferentes fuentes tienen más peso que otras.
“Sopesan diferentes fuentes”, argumentó Lott. “Darán mucha importancia a un artículo del New York Times o del Washington Post. Es sólo una cuestión de qué información incluyen en el cuadro de chat para armar una respuesta y cuál no”.
Lott sostiene que el desarrolladores detrás del algoritmo están influyendo en estos chatbots.
“Es exactamente lo mismo que la búsqueda de noticias. Pesan ciertas fuentes y no pesan todo por igual. Ellos van y deciden cuáles creen que son fuentes más creíbles, y eso sesga los tipos de resultados que se van a obtener”, dijo Lott.
Explicó que los chatbots sesgados pueden ser perjudiciales para el público, especialmente porque cada vez más personas los utilizan para todo, incluso para votar y sopesar los ideales de ciertos candidatos políticos.
“Desafortunadamente, mucha gente utiliza estos chatbots de IA para todo”, dijo Lott. “Desde tratar de ayudarlos a decidir cómo votar hasta incluso personas en los medios que tienen chatbots de inteligencia artificial que los ayudan a recopilar información que luego utilizan en sus noticias”.
By Gabriella Sable