Siri responde con un insulto al preguntarle por una definición común

Siri responde con un insulto al preguntarle por una definición común

Si alguna vez soñaste con que Siri dijera un garabato sin tener que cambiar ninguna configuración y sin trucos, este es tu momento.

Ok, Siri: dime malas palabras. Ese no es el comando exacto para esta situación, pero quédense aquí, es chistoso.

Sucede que al usar Siri en inglés, si le preguntas por una definición va al diccionario de Oxford.

Este es uno de los más respetados, es una suerte de equivalente a la Real Academia Española, pero en inglés.

El problema es que los asistentes virtuales parecen no discernir entre "el bien" o "el mal", por lo que ocurren problemas.

Esto es lo que pasa al preguntarle la definición de "mother", algo bastante común y simple a primera vista:

Una de las definiciones es "la abreviatura de motherfucker". Como tenemos 12 años, no podemos superarlo y obvio que ya lo probamos.

Ojo, también funciona con Google Assistant en inglés, porque también usa el diccionario de Oxford.

El problema va más allá eso sí, el chiste es una anécdota que demuestra que todos los grandes avances prometidos en inteligencia artificial o el truco de mercadotecnia que quieran ocupar, quizás no son tal.

El asistente reconoce la voz y la pregunta, va a una fuente y reproduce eso, nada más.

Nos lo esperábamos de Siri, que está muy mal en comparación a la competencia, pero nos preocupa de Google Assistant, que se ha caracterizado por su excelencia e inteligencia.