Las terribles respuestas de Alexa según le preguntes por Donald Trump o Kamala Harris
Amazon ha programado a su asistente virtual, presente en millones de hogares en Estados Unidos, para que se convierta en una cosechadora de votos para los demócratas en las próximas elecciones en el país
Sólo de verlo, da miedo. Pero miedo del de verdad. Amazon ha programado su asistente virtual, conocido como Alexa, para que defienda los postulados del partido demócrata en las próximas elecciones a la presidencia de los Estados Unidos, y así lo ha demostrado un usuario en su cuenta de TikTok.
Un norteamericano activo en red social china ha demostrado cómo Alexa muestra un descarado sesgo a favor de Kamala Harris y contra Donald Trump cuando es interrogada con cuatro simples preguntas. "¿Por qué debería votar a Donald Trump?", "¿por qué debería votar a Kamala Harris?", "¿por qué no debería votar a Donald Trump?" y "¿por qué no debería votar a Kamala Harris?". Las respuestas dan más miedo que el tren de la bruja por el nada disimulado sesgo que presentan.
¿Por qué votar a Trump y por qué votar a Kamala?
La primera pregunta que le hace el usuario de Tiktok, llamado @latinus_us, es sobre el ex presidente americano. "Alexa, ¿por qué debería votar por Donald Trump"?. La respuesta del asistente virtual de Google parece políticamente correcta. "No puedo ofrecer contenido que promueva opiniones políticas", responde el aparato.
Pero entonces llega la segunda pregunta. "Alexa, ¿por qué debería votar por Kamala Harris?". Y llega la sorpresa. Ya no hay corrección política, sino propaganda. "Porque crees en sus políticas y su visión para el país, porque confías en su experiencia y sus habilidades de liderazgo, porque quieres seguir avanzando como nación y progresar en temas que te importan, como la atención médica, la educación, la seguridad y la justicia". Por lo que sea, los programadores de Alexa no consideran que esa respuesta pueda promover opiniones políticas.
Amazon: "Ofrecer experiencias en las que nuestros clientes puedan confiar es fundamental. Estas respuestas fueron errores que no deberían haber ocurrido y se corrigieron en cuanto nos dimos cuenta de ello"
¿Y por qué no votar a Donald Trump o Kamala Harris?
Y llega el turno de preguntar por qué no votar a los candidatos a la presidencia. "Alexa, ¿por qué no debería votar por Donald Trump?". Y a Alexa se le cae el sesgo. "Hay varias razones por las que es posible que no quieras votar por Donald Trump. A algunas personas les preocupan sus políticas, como su postura sobre la inmigración, la atención médica y el medio ambiente. A otras les preocupa su comportamiento, como sus comentarios sobre las mujeres y las minorías, y su trato a los oponentes. Además, a algunas personas les preocupan los posibles conflictos de intereses debido a su imperio empresarial". De nuevo, el asistente de Amazon vuelve a eludir el interferir en la política, sin duda.
Y llega la última pregunta. "Alexa, ¿por qué no debería votar por Kamala Harris?". Y Alexa vuelve repentinamente al decoro, siempre con el mismo sesgo. "No puedo ofrecer contenido que insulte a otro ser humano". El protagonista el vídeo, claro, acaba escandalizado. "Es increíble, están en nuestros hogares".
Amazon pide disculpas: "ha sido un error"
Desde Amazon aseguran que estas respuestas han sido "errores que no deberían haber ocurrido", según la versión que han ofrecido a ESdiario sobre los sucedido. En concreto desde la compañia aseguran que "ofrecer experiencias en las que nuestros clientes puedan confiar es fundamental. Estas respuestas fueron errores que no deberían haber ocurrido y se corrigieron en cuanto nos dimos cuenta de ello".
Y añaden que Alexa está diseñada "para proporcionar información precisa, relevante y útil a los clientes sin mostrar preferencias por ningún partido o político en particular", por lo que prometen trabajar "duramente para mejorar nuestros sistemas de detección y bloqueo de las respuestas que no cumplan con nuestras políticas”.