La voz, impulsada por la llegada del ‘internet de las cosas’, se erige como próxima gran forma de entenderse con la tecnología. En el horizonte, algunos están convencidos de que las máquinas responderán a nuestros sentimientos.
A pesar de la multitud de muescas que ha grabado la revolución tecnológica en los hábitos de millones de personas, la forma de entenderse entre humanos y las máquinas que les acompañan en su día a día ha permanecido blindada ante cambios de naturaleza radical. Presionar una tecla tras otra, hacer clic con el ratón o toquetear una pantalla. Un lenguaje táctil que ha comenzado a cambiar con el gobierno de los teléfonos inteligentes, la irrupción de los dispositivos llevables y los cantos de sirena del ‘Internet de todas las cosas’, donde la voz será clave.
La voz es algo tan natural que abres el mundo de las búsquedas a personas no familiarizadas con la informática o con deficiencias visuales
«La forma de acceder a la información es diferente. O no hay teclados o con los virtuales no se trabaja bien. La voz es algo tan natural que abres el mundo de las búsquedas a personas no familiarizadas con la informática o con deficiencias visuales», defiende Pedro Moreno, ingeniero español que trabaja para Google, en Nueva York, perfeccionando su asistente de voz.
«El castellano se lee como se escribe salvo algunas excepciones. Por eso es relativamente fácil trabajar con él. En otras lenguas como el danés o el inglés necesitas recoger cientos de miles de horas de conversación y que un lingüísta te diga como se descompone cada palabras en fonemas para crear sistemas de entrenamiento automáticos», aclara sobre una plataforma que funciona con cientos de lenguas, incluso el latín, el chino o el zulú, plagado de enrevesados chasquidos casi imperceptibles para el oído occidental: «Sin el ‘Big Data’ –datos masivos– todo esto no hubiese sido posible».
Otros métodos de entrada
«El sistema se va alimentando constantemente de las respuestas de los usuarios y un equipa revisa todo ese material», reseña Xabier Uribe-Etxebarria, creador del asistente Sherpa, una aplicación que suma ya más de un millón de descargas en Android. «El problema no es tanto el acento como la gramática», puntualiza al preguntarle como se trabaja con idiomas con múltiples variaciones geográficas.
Este emprendedor vizcaíno cree que, a pesar de las muchas posibilidades de las interfaces ‘habladas’, se acabarán maridando con otros métodos de entrada como la pantalla táctil, el NFC o el GPS. «Hay acciones que son más fáciles de teclear que de pronunciar», sostiene, matizando que de momento las solicitudes más comunes de los usuarios son preguntas referidas a resultados deportivos, previsiones meteorológicas, la programación de alarmas o rutas.
Uribe-Etxebarria augura que las mejoras más inmediatas tratarán de añadir «una memoria a estos asistentes» para que sean capaces de mantener una «conversación fluída más allá de preguntas inconexas» y que sean capaces de adelantarse a las necesidades de los usuarios. «El súmmum sería que no hubiese que preguntar nada al teléfono, que si llega ese momento es porque algo ha fallado», cuenta sobre la inteligencia predictiva que permite, ya, avisar del gol que le han metido a tu equipo favorito o de la tormenta que va a caer en una hora arruinándote la colada.
«La gente se acostumbrará», predice el ‘tecnoantropólogo’ Jordi Colobrans. Algunos estudios, como uno realizado por Cisco e Intel, afirman que en los próximos años cada persona manejará una media de 3,8 objetos conectados. «La tecnología te proporciona métodos para reducir esfuerzos. Si con la voz puede interactuar con ese ecosistema, me acostumbraré a eso y no a un contacto físico», añade este profesor de la Universidad de Barcelona.
Relación natural
«Este tipo de relación entre humanos y máquinas ya empieza a verse como natural. Cada día nos cruzamos con decenas de personas hablando con manos libres», asegura este experto. Preguntado por la posibilidad de que una máquina pueda dar respuesta los sentimientos humanos –una ensoñación tradicional del mundo de la ciencia ficción–, opina que es un desarrollo que «va lento» y que hay que «distinguir entre promesas y los resultados reales».
«Creo son viables a corto plazo sistemas en que la respuesta emocional del agente esté encaminada a mejorar la comunicación o a aportar un valor añadido en un contexto concreto», destaca Zoraida Calleja, docente de la Universidad de Granada e investigadora sobre computación afectiva. Aunque asegura que «podría estudiarse para fines lúdicos», ve poco probable la llegada de un sistema operativo como el de la película ‘Her’, que sea capaz de responder con emociones distintas para las que fue programada.
Fuente: ABC News.