{"id":80,"date":"2009-11-16T17:49:20","date_gmt":"2009-11-16T15:49:20","guid":{"rendered":"https:\/\/medina-psicologia.ugr.es\/ciencia\/?p=80"},"modified":"2009-11-16T18:12:44","modified_gmt":"2009-11-16T16:12:44","slug":"avances-tecnologicos-para-romper-las-barreras-de-comunicacion-con-las-personas-sordas","status":"publish","type":"post","link":"https:\/\/www.cienciacognitiva.org\/?p=80","title":{"rendered":"Avances tecnol\u00f3gicos para romper las barreras de comunicaci\u00f3n con las personas sordas"},"content":{"rendered":"<p>Rub\u00e9n San Segundo<br \/>\nGrupo de Tecnolog\u00eda del Habla, Dpt. de Ingenier\u00eda Electr\u00f3nica, E.T.S.I. Telecomunicaci\u00f3n, Universidad Polit\u00e9cnica de Madrid, Espa\u00f1a<\/p>\n<p><img style='margin-right:20px;'src=\"https:\/\/www.cienciacognitiva.org\/files\/2009-31-a-cc-daisee.jpg\" alt=\"(cc) daisee\" vspace=\"10\" width=\"300\" align=\"left\" height=\"200\" hspace=\"10\" \/><em>Los \u00faltimos avances tecnol\u00f3gicos han permitido que se desarrollen sistemas de traducci\u00f3n autom\u00e1tica de voz a Lengua de Signos con la calidad suficiente como para permitir traducir las expresiones o explicaciones que una persona oyente quiere transmitir a una persona sorda en un dominio de aplicaci\u00f3n concreto. Estos sistemas permitir\u00e1n la comunicaci\u00f3n entre personas oyentes y sordas en las situaciones en las que no sea posible disponer de int\u00e9rpretes humanos.<\/em><\/p>\n<p><!--more--><a href=\"https:\/\/www.cienciacognitiva.org\/files\/2009-31.pdf\" title=\"versi\u00f3n en pdf\">[Versi\u00f3n en pdf]<\/a><\/p>\n<p>La traducci\u00f3n autom\u00e1tica ha sido un campo de investigaci\u00f3n de gran inter\u00e9s a nivel internacional. En Estados Unidos este inter\u00e9s se ha centrado \u00faltimamente en la traducci\u00f3n de la lengua \u00e1rabe al ingl\u00e9s como consecuencia de los atentados del 11-S. En la Comunidad Europea hay una gran cantidad de lenguas oficiales y, por tanto, mucho trabajo de traducci\u00f3n de los documentos oficiales.<\/p>\n<p>Hasta la fecha, los mejores sistemas de traducci\u00f3n est\u00e1n basados en modelos estad\u00edsticos que intentan analizar la probabilidad de que la traducci\u00f3n de las palabras de la lengua de destino (tomando en consideraci\u00f3n las de la lengua de origen) sean las m\u00e1s adecuadas (Och y Ney, 2002). Para la estimaci\u00f3n de estas probabilidades se necesitan muchas frases ya traducidas (corpus paralelos). Para conseguirlas, se utilizan t\u00e9cnicas de traducci\u00f3n estad\u00edstica, entre las que destacan las t\u00e9cnicas basadas en ejemplos (traducci\u00f3n por analog\u00eda; Sumita y col, 2003), traductores basados en estructuras gramaticales de las lenguas (Casacuberta y Vidal, 2004) y otras soluciones.<\/p>\n<p>Los importantes progresos conseguidos en los procesos de traducci\u00f3n de habla se deben principalmente a la aparici\u00f3n de medidas de error autom\u00e1ticas (Papineni, Roukos, Ward, y Zhu, 2004). Hasta ahora s\u00f3lo se pod\u00eda saber si una traducci\u00f3n era correcta pidiendo a un experto traductor que la valorase, una labor muy lenta. Otro factor que ha agilizado los procesos de traducci\u00f3n del habla ha sido la mejora de la eficiencia de los algoritmos de entrenamiento para el c\u00e1lculo de las probabilidades de traducci\u00f3n (Och y Ney, 2003), as\u00ed como el desarrollo de modelos dependientes del contexto (Koehn, Och y Marcu, 2003), en los que no s\u00f3lo se tiene en cuenta la palabra a traducir sino el lugar que ocupan en la frase, as\u00ed como las palabras adyacentes.<\/p>\n<p>En los \u00faltimos a\u00f1os ha aumentado el inter\u00e9s de varios grupos de investigaci\u00f3n por la traducci\u00f3n autom\u00e1tica de voz a lengua de signos, desarroll\u00e1ndose varios prototipos: basados en ejemplos (Morrissey y Way,  2005), en reglas de traducci\u00f3n escritas por un experto (San-Segundo, 2008), en frases completas ya traducidas anteriormente (Cox y col., 2002), o en soluciones estad\u00edsticas (Bungeroth y Ney, 2004).<\/p>\n<p>Bas\u00e1ndonos en datos del INE y del MEC (CNSE, 2003), en Espa\u00f1a, el 47% de las personas sordas o con discapacidad auditiva temprana mayores de 10 a\u00f1os no tienen estudios o son analfabetas. La realidad nos muestra que, de este colectivo, hasta un 92% padece analfabetismo funcional: tienen serias dificultades para comprender textos y expresarse correctamente por escrito. As\u00ed, s\u00f3lo entre un 1% y un 3% de las personas sordas en Espa\u00f1a han superado estudios universitarios, niveles muy inferiores al del conjunto de la poblaci\u00f3n espa\u00f1ola.<\/p>\n<p>Esto tiene diversas consecuencias en la calidad de vida de las personas sordas. La que nos interesa destacar en este art\u00edculo est\u00e1 relacionada con el acceso de las personas sordas a la informaci\u00f3n. En este sentido, la Lengua de Signos Espa\u00f1ola (LSE), una lengua natural en las personas sordas que se estructura en los mismos niveles ling\u00fc\u00edsticos y cumple las mismas funciones que cualquier lengua oral, puede contribuir de forma efectiva a su mejor acceso a la informaci\u00f3n, la supresi\u00f3n de las barreras de comunicaci\u00f3n y la igualdad de oportunidades.<\/p>\n<p style=\"text-align: center\"><img style='margin-right:20px;'src=\"https:\/\/www.cienciacognitiva.org\/files\/2009-31-b.png\" alt=\"Figura 1\" width=\"500\" height=\"164\" \/><\/p>\n<p style=\"text-align: center\"><em>Figura 1.- Diagrama de las fases en las que se desarrolla el sistema de traducci\u00f3n de voz a LSE. <\/em><\/p>\n<p>La Universidad Polit\u00e9cnica de Madrid (UPM) y la Confederaci\u00f3n Nacional de Sordos Espa\u00f1oles (Fundaci\u00f3n CNSE) han colaborado durante los \u00faltimos a\u00f1os para desarrollar el primer sistema de traducci\u00f3n de voz a Lengua de Signos Espa\u00f1ola (LSE). En la p\u00e1gina web <a href=\"https:\/\/www.traduccionvozlse.es\" title=\"enlace externo\" target=\"_blank\">https:\/\/www.traduccionvozlse.es<\/a> se pueden consultar algunos v\u00eddeos de demostraci\u00f3n del sistema desarrollado. Este sistema es capaz de traducir, por ejemplo, las expresiones pronunciadas por los funcionarios de la administraci\u00f3n p\u00fablica cuando atienden a una persona sorda que desea renovar el permiso de conducir o el Documento Nacional de Identidad (DNI). El sistema realiza el proceso de traducci\u00f3n en tres pasos (v\u00e9ase la Figura 1). En el primero, un reconocedor de voz se encarga de traducir la voz a una secuencia de palabras. En segundo lugar, un m\u00f3dulo de traducci\u00f3n autom\u00e1tica traduce la secuencia de palabras a una secuencia de signos. El m\u00f3dulo de traducci\u00f3n combina dos estrategias de traducci\u00f3n: una basada en ejemplos y otra basada en reglas de traducci\u00f3n escritas por un experto. Finalmente, dado que la Lengua de Signos es visual, es necesario incorporar un m\u00f3dulo de animaci\u00f3n de los signos basado en un agente animado virtual en 3D. Este agente animado ha sido desarrollado en el proyecto eSIGN (<a href=\"https:\/\/www.sign-lang.uni-hamburg.de\/eSIGN\/\" title=\"enlace externo\" target=\"_blank\">https:\/\/www.sign-lang.uni-hamburg.de\/eSIGN\/<\/a>) y est\u00e1 disponible para su empleo en investigaci\u00f3n.<\/p>\n<p style=\"text-align: center\"><img style='margin-right:20px;'src=\"https:\/\/www.cienciacognitiva.org\/files\/2009-31-c.png\" alt=\"Figura 2\" width=\"500\" height=\"270\" \/><\/p>\n<p style=\"text-align: center\"><em>Figura 2.- Interfaz del programa desarrollado y ejemplo de uso del sistema. <\/em><\/p>\n<p>Un aspecto muy importante en la evaluaci\u00f3n de la tecnolog\u00eda desarrollada tiene que ver con su empleo con usuarios finales. En este caso, el sistema desarrollado ha sido evaluado en la Jefatura Provincial de Tr\u00e1fico de Toledo con funcionarios oyentes y personas sordas, obteniendo unos resultados muy prometedores (ve\u00e1se Figura 2). Estos resultados animan a continuar trabajando en el desarrollo de sistemas similares que acerquen la administraci\u00f3n p\u00fablica a las personas sordas.<\/p>\n<p><strong>Agradecimientos<\/strong><\/p>\n<p>Estos trabajos han sido financiados por el Plan Avanza y la Fundaci\u00f3n ONCE.<\/p>\n<p><strong>Referencias<\/strong><\/p>\n<p>Bungeroth, J., y Ney, H. (2004). Statistical sign language translation. En: Streiter, O. y Vettori, C. (Eds). Workshop on representation and processing of sign languages. <em>Proceedings of the Fourth International Conference on Language Resources and Evaluation (LREC)<\/em>,  pp. 105-108.<\/p>\n<p>Casacuberta, F., y Vidal, E. (2004). Machine translation with inferred stochastic finite-state transducers. <em>Computer Linguistics<\/em>, 30, 205-225.<\/p>\n<p>Cox, S. L., Lincoln, M., Tryggvason, J., Nakisa, M., Wells, M., Mand, T., y Abbott, S. (2002). TESSA: A system to aid communication with deaf people. <em>Proceedings of the Fifth International ACM Conference on Assistive Technologies<\/em>, Edinburgh, Scotland, pp. 205-212.<\/p>\n<p>Koehn, P., Och, F. J. y Marcu, D. (2003). Statistical phrase-based translation. <em>Proceedings of the Human Language Technology Conference (HLT-NAACL)<\/em>, Edmonton, Canada, pp. 127-133.<\/p>\n<p>Morrissey, S. y Way. A. (2005). An example-based approach to translating sign language. <em>Workshop on Example-Based Machine Translation (MT X-05)<\/em>, Phuket, Thailand, pp. 109-116.<\/p>\n<p>Och, J. y Ney., H. (2002). Discriminative training and maximum entropy models for statistical machine translation. <em>Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL)<\/em>, Philadelphia, PA, pp. 295-302.<\/p>\n<p>Och J., y Ney, H. (2003). A systematic comparison of various alignment models. <em>Computational Linguistics<\/em>, 29, 19-51.<\/p>\n<p>Papineni, K., Roukos, S., Ward, T. y Zhu, W. J. (2002). BLEU: A method for automatic evaluation of machine translation. <em>40th Annual Meeting of the Association for Computational Linguistics (ACL)<\/em>, Philadelphia, PA, pp. 311-318.<\/p>\n<p>San-Segundo, R., Barra, R., C\u00f3rdoba, R., D&#8217;Haro, L. F., Fern\u00e1ndez, F., Ferreiros, J., Lucas, J. M., Mac\u00edas-Guarasa, J., Montero, J. M., Pardo, J. M. (2008). Speech to Sign Language translation system for Spanish. <em>Speech Communication<\/em>, 50, 1009-1020.<\/p>\n<p>Sumita, E., Akiba, Y., Doi, T., Finch, A.,  Imamura, K., Paul, M., Shimohata, M., Watanabe. T. (2003). A corpus-centered approach to spoken language translation. <em>Proceedings of the Conference of the Association for Computational Linguistics (ACL)<\/em>, Hungary, pp. 171-174.<\/p>\n<p align=\"center\">Manuscrito recibido el 13 de septiembre de 2009.<br \/>\nAceptado el 8 de octubre de 2009.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Rub\u00e9n San Segundo Grupo de Tecnolog\u00eda del Habla, Dpt. de Ingenier\u00eda Electr\u00f3nica, E.T.S.I. Telecomunicaci\u00f3n, Universidad Polit\u00e9cnica de Madrid, Espa\u00f1a Los <span class=\"ellipsis\">&hellip;<\/span> <span class=\"more-link-wrap\"><a href=\"https:\/\/www.cienciacognitiva.org\/?p=80\" class=\"more-link\"><span>Read More &rarr;<\/span><\/a><\/span><\/p>\n","protected":false},"author":4,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[16,5,7],"tags":[223,82,49,224,221,225,222],"class_list":["post-80","post","type-post","status-publish","format-standard","hentry","category-actualidad","category-inteligenciaartificial","category-linguistica","tag-agente-animado-virtual","tag-lengua-de-signos","tag-lenguaje","tag-sistemas-alternativos-de-comunicacion","tag-sordera","tag-tecnologia-del-habla","tag-traduccion-automatica"],"_links":{"self":[{"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=\/wp\/v2\/posts\/80","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=80"}],"version-history":[{"count":0,"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=\/wp\/v2\/posts\/80\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=80"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=80"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=80"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}