Apple habría entrenado a Siri para no hablar de feminismo y "temas sensibles"

Apple habría entrenado a Siri para no hablar de feminismo y "temas sensibles"

¿Siri no quiere problemas?

Siri es un asistente virtual que nunca ha brillado por su funcionalidad e inteligencia. Pero siempre había sido posible hacerle preguntas sobre cuál tema de actualidad para recibir información de interés. Sin embargo, ahora descubrimos que Apple prefirió cambiar algunas cosas para no entrar en controversias.

Un extenso artículo de The Guardian saca a la luz una serie de documentos internos pertenecientes a un proyecto reciente. En donde una grupo de  contratistas de Apple deliberadamente modificó el comportamiento de Siri.

Siri

Todo con la finalidad de que fuera "lo más neutral" posible al ser cuestionado sobre temas de relevancia y peso social; como el movimiento #MeToo y el feminismo.

Apple habría impulsado este proyecto interno para reescribir las respuestas de Siri sobre "temas delicados". En donde el asistente virtual sólo podría optar ahora por tres variantes de comportamiento: "no participar", "desviarse a otro tema" e "informar".

La intención es que las respuestas de Siri fuesen más cuidadosas y sin una inclinación aparente. Pero la opción de desviarse del tema es un obvio objeto de críticas.

UNESCO no quiere que los asistentes virtuales tengan voz de mujer

"-Hey Siri you’re a bitch. -I’d blush if I could". La organización tiene algunos puntos muy válidos en ese explosivo documento.

Los derechos de las mujeres, el acoso y la igualdad de género, serían algunos de los principales asuntos en los que Siri ahora tiene un nuevo modo de comportamiento.

En paralelo se modificó también el comportamiento del asistente Siri para que reaccione de manera más firme al ser insultado por los usuarios.

Para comprobar la existencia de estas modificaciones bastaría con simplemente tomar su dispositivo iOS y preguntarle algo sobre esos temas.