Noticia original: Autism Detected In Unique Vocal Signature Of Baby Talk

El uso de un nuevo tipo de tecnología de “firma vocal” que se centra en los patrones de sonido en lugar de la pronunciación de las palabras de un bebé permitiría detectar trastornos del espectro autista en fases tempranas.

El nuevo método mejorará en gran medida el estudio del desarrollo del lenguaje porque puede recopilar grabaciones de todo un día en los ambientes naturales de los niños y analizar automáticamente los patrones de sonido de forma considerablemente más barata y eficiente, respecto a los métodos más tradicionales que requieren la dedicación permanente del personal.

La investigación detrás de estos hallazgos fue dirigida por el Dr. D. Kimbrough Oller, profesor y presidente de la excelencia en audiología y patología del lenguaje y del habla en la Universidad de Memphis (Estados Unidos), y se puede leer un informe en línea publicados en los Proceedings of the National Academy of Sciences (Actas de la Academia Nacional de Ciencias) el 19 de julio de 2010.

Oller y sus colegas dijeron que LENA (Language Environment Analysis, Análisis de entorno del lenguaje) permitió una precisión del 86 por ciento para distinguir el autismo en niños muy jóvenes. Según indicaron, el sistema también es capaz de distinguir entre los niños con un desarrollo normal, los niños con autismo y niños con retraso en el lenguaje.

LENA se basa en la nueva tecnología “análisis acústico automático” para permitir “el análisis estadístico a gran escala de una de parámetros acústicos estratégicamente seleccionados“ en las grabaciones de sonido.

En este estudio, Oller y sus colegas utilizaron LENA analizar grabaciones realizadas por 232 niños a lo largo de 1.486 días (lo que asciende a más de 3.000.000 expresiones identificadas automáticamente).

LENA es esencialmente un procesador de lenguaje complementado con software de análisis. En el corazón del software reside un algoritmo que Oller y sus colegas han desarrollado, que reconoce 12 Parámetros acústicos o patrones de sonido distintos asociados con el desarrollo vocal.

El procesador se inserta en un bolsillo especialmente destinado a ello de la ropa de los niños y registra todo el día lo que el niño dice y los sonidos que hace, y distingue de forma fiable vocalizaciones (es decir, cuando los niños hablan o intentan hablar) de gritos, llantos, otras voces y de ruido de fondo.

Los niños participantes procedían de familias cuyos padres respondieron a un anuncio solicitando voluntarios que participan en el estudio. Cuando se inscribieron, los padres indicaron si sus hijos habían sido diagnosticados con autismo o retraso en el lenguaje. El proyecto también ofreció a los padres de niños con retraso del lenguaje o autismo evaluaciones médicas independientes de habla y lenguaje que no estaban vinculadas a la investigación; los padres enviaron estos informes médicos a los investigadores.

Las grabaciones de la actividad de los niños a lo largo del día se inició en 2006 y se llevó a cabo en ambientes domésticos naturales cuando los padres enciendían los grabadores que ya estaban en los bolsillos hechos para este fin en la ropa de los niños.

Oller y sus colegas encontraron que los más importantes de los 12 parámetros acústicos resultaron ser los que dirigen la capacidad de los niños para producir sílabas bien formadas (silabeo), moviendo la mandíbula y la lengua rápidamente durante la vocalización. Los bebés empiezan a hacer esto cuando tienen pocos meses de edad, y mejoran la habilidad a medida que crecen y aprenden a hablar.

Los investigadores encontraron que las muestras de sonido de los niños autistas mostraron poca evidencia de desarrollo de silabeo, porque los parámetros acústicos relevantes no cambiaron tanto como se espera cuando los niños crecen (de 1 año a 4 años). Esto se compara con el desarrollo estadísticamente significativo con la edad de los 12 parámetros, tanto para niños con un desarrollo normal y aquellos con retrasos en el lenguaje.

Oller y sus colegas concluyeron que se trataba de una prueba de concepto de que un método como LENA que utiliza el análisis automático de gran cantidad de muestras de grabaciones de vocalización pueden hacer una valiosa contribución al campo de la investigación para el desarrollo vocal.

Los científicos han estado estudiando la presencia y ausencia de aberraciones del habla en niños con trastornos del espectro autista durante más de 20 años, pero hasta la fecha, los criterios estándar para su diagnóstico han excluido las características vocales, dijo el co-autor del estudio el Dr. Steven F. Warren, profesor de  Ciencia de Comportamiento Aplicada y vicerrector de investigación de la Universidad de Kansas.

Entre los primeros científicos en ver el potencial de un método como LENA en la detección de autismo, Warren dijo a la prensa que: “Un pequeño número de estudios habían sugerido previamente que los niños con autismo tienen una firma vocal muy diferente, pero hasta ahora, no ha sido posible desarrollar este conocimiento en aplicaciones clínicas por la falta de tecnología de medición“.

En su información complementaria, Warren, Oller y sus colegas describen el procedimiento tradicional y laborioso con que los científicos estudian el desarrollo vocal y su papel en el lenguaje, y lo compararon con el proceso automático, rápido de un sistema como LENA. En el método tradicional, personal de transcripción y analistas miden y codifican pequeñas muestras registradas, mientras que LENA es completamente automatizado “sin requerir intervención humana”, según indican, “permitiendo un muestreo eficiente y un análisis a un nivel de escala sin precedentes”.

Warren dijo que una herramienta como LENA, que recoge y analiza cantidades inimaginables de datos de forma relativamente barata, tendrá un enorme impacto en los campos de la investigación del lenguaje y en las ciencias del comportamiento, y también en áreas como la detección, evaluación y tratamiento del autismo.

También, como consecuencia de que la tecnología se basa en análisis de patrones de sonido y no en palabras, en teoría, podría detectar el autismo en cualquier hablante independientemente del idioma que hable.

“Por lo que sabemos, la física del habla humana es la misma en todas las personas ”, dijo Warren.

Actualmente en los EE.UU., la edad media de diagnóstico de trastorno del espectro autista (TEA) en inglés “autism spectrum disorder (ASD)” en niños, es de 5,7 años y con este tipo de tecnología podría reducirse a 18 meses, sugirió Warren.

“Esta tecnología podría ayudar a los pediatras a detectar de forma temprana un TEA en niños para determinar si se requiere su remisión a un especialista para un diagnóstico completo y conseguir que esos niños puedan recibir tratamientos con más antelación y efectividad“, agregó.

LENA también podría ser utilizado como una forma de ayudar a los padres para complementar la terapia de mejora del lenguaje en el hogar, dijo Warren. Por ejemplo, podrían utilizarlo para evaluar por sí mismos cómo de efectiva era su intervención, explicó.

Título de la contribución científica: “Análisis vocal automático de grabaciones naturalistas de niños con autismo, con retraso en el lenguaje, y con desarrollo típico“.

“Automated vocal analysis of naturalistic recordings from children with autism, language delay, and typical development.”
D. K. Oller, P. Niyogi, S. Gray, J. A. Richards, J. Gilkerson, D. Xu, U. Yapanel, and S. F. Warren.
Proceedings of the National Academy of Sciences, Published online before print 19 July 2010.
DOI: 10.1073/pnas.1003882107

Additional source: Univesrity of Kansas.

La norma ISO/IEC 19794  es un conjunto de especificaciones sobre la definición de los formatos de los datos de las distintas técnicas biométricas.  Cada parte recoge la forma de codificar un determinado parámetro: geometría de la mano, huella dactilar, firma, voz,…

El grupo de trabajo responsable de las normas técnicas de uso en biometría es el Subcomité 37 y en el, el grupo de trabajo WG3 (Biometric Data Interchange Formats) que trabaja para definir los formatos que deben cumplir los datos para cada modalidad biométrica

La norma ISO/IEC 19794 dispone de las siguientes partes:

  • ISO/IEC 19794-1: 2006 Information Technology. Formato de datos biométricos para el intercambio entre aplicaciones. Marco general que resume los demás trabajos.
  • ISO/IEC 19794-10: 2007 Information Technology. Formato de los datos para sistemas biométricos basados en la geometría de la mano.
  • ISO/IEC 19794-2: 2005 Information Technology. Formato de los datos para sistemas biométricos basados en minucias de los dedos.
  • ISO/IEC 19794-3: 2005 Information Technology. Formato de los datos para sistemas biométricos basados en patrones de dedo.
  • ISO/IEC 19794-4: 2005 Information Technology. Formato de los datos para sistemas biométricos basados en imágenes de dedo.
  • ISO/IEC 19794-5: 2005 + A2: 2009 Information Technology. Formato de los datos para sistemas biométricos basados en imágenes del rostro.
  • ISO/IEC 19794-6: 2005 Information Technology. Formato de los datos para sistemas biométricos basados en imágenes de iris.
  • ISO/IEC 19794-7: 2007 Information Technology. Formato de los datos para sistemas biométricos basados en la firma manuscrita.
  • ISO/IEC 19794-8: 2008 Information Technology. Formato de los datos para sistemas biométricos basados en el esqueleto del dedo.
  • ISO/IEC 19794-9: 2007 Information Technology. Formato de los datos para sistemas biométricos basados en imágenes vasculares
  • ISO/IEC 19794-11, Information Technology. Formato de los datos para sistemas biométricos basados en firmas dinámicas
  • ISO/IEC 19794-13, Information Technology. Formato de los datos para sistemas  biométricos basados en la voz
  • ISO/IEC 19794-14, Information Technology. Formato de los datos para sistemas  biométricos basados en el ADN

 

El subcomité 37 de biometría en el marco de la organización ISO se creó en 2002 y forma parte del Comité 1 de Tecnologías de la Información.

Hasta 2017 tiene el nombramiento de “Chairperson” Fernando Podio y la función de secretaría la desempeña Michaela Miller.

A fecha de hoy ha publicado 117 normas o actualizaciones.

Aparte de 13 países observadores, participan con sus respectivos comités nacionales 29 países:

  • España (AENOR)
  • Alemania (DIN)
  • Australia (SA)
  • Canadá (SCC)
  • China (SAC)
  • Dinamarca (DS)
  • Egipto (EOS)
  • Estados Unidos (ANSI)
  • Federación Rusa (GOST R)
  • Finlandia (SFS)
  • Francia (AFNOR)
  • India (BIS)
  • Israel (SII)
  • Italia (UNI)
  • Japón (JISC)
  • Malasia (DSM)
  • Noruega (SN)
  • Nueva Zelanda (SNZ)
  • Países Bajos (NEN)
  • Polonia (PKN)
  • Portugal (IPQ)
  • Reino Unido (BSI)
  • República Checa (UNMZ)
  • República de Corea (KATS)
  • Singapur (SPRING SG)
  • Sudáfrica (SABS)
  • Suecia (SIS)
  • Suiza (SNV)
  • Ucrania (DSTU)

La AEECCC Asociación Española de Expertos en Centros de Contacto con Clientes (originalmente “Call Centers y Contact Centers”) nace en el año 2001 como respuesta a la creciente demanda de crear un foro único donde los profesionales de la actividad del Contacto con Clientes puedan expresar libremente sus inquietudes, compartir experiencias, capacitarse y hacer crecer la actividad de Centros de Contacto de Clientes.

Desde su comienzo, la misión de la AEECCC es profesionalizar la actividad. Fomentando y divulgando información, conocimiento y experiencias entre aquellos profesionales y empresas que configuran la actividad de atención y relación con el cliente.

En 2012 aprobó en su Asamblea General la adopción de un nuevo nombre y desveló su nueva estrategia de cara al futuro. En lo que respecta al nombre, la organización pasó a llamarse “Asociación Española de Expertos en la Relación con Clientes” con el acrónimo AEERC. Cambió también de logo y  de domicilio social, situándolo en José Ortega y Gasset 61 6º, 28006 de Madrid.

La AEERC es la representante de España en la Confederación Europea de Asociaciones de Contact Centers (ECCCO) y mantiene relaciones muy estrechas y de creciente colaboración con sus homónimas en los países de habla hispana.

Las firmas electrónicas avanzadas se enmarcan una tipología de firma que usa tecnología criptográfica de clave pública partiendo de la base de una clave privada custodiada por el firmante en un dispositivo seguro de creación de firma y de un certificado cualificado vinculado a ella.

Estas firmas se pueden realizar, por ejemplo, con el DNIe.

Sin embargo, a pesar de que ya existen más de 40 millones de unidades de DNIe este se utiliza de modo marginal porque se percibe como complejo por los usuarios.

Sin embargo pueden gestionarse firmas electrónicas basadas en técnicas biométricas que conservan evidencias electrónicas que vinculan el documento firmado con rasgos como ma voz o los trazos realizados por un firmante en una tableta digitalizadora.

Estas firmas son compatibles con la nueva legislación sobre firma electrónica como comprobarse en el último borrador del Reglamento europeo – Identificación electrónica y servicios de confianza para las transacciones electrónicas en el mercado interior disponible en la página web del Foro de la Firma Electrónica.

Esta firmas son más sencillas de realizar y pueden resultar idóneas en muchos caso para “despapelizar” procesos, desmaterializando documentos que pueden gestionarse electrónicamente.

La gestión de evidencias electrónicas puede realizarse incluso con modelos híbridos que permiten que un usuario pueda llevarse el documento en papel mientras la entidad lo cutodia electrónicamente.

Y todo ello sin merma de la seguridad jurídica que conviene a ambas partes.

Si quiere profundizar en estos temas, contacte con EADTrust en el 917160555 o en el 902365612.

A partir del procedimiento de gestión de firma electrónica manuscrita digitalizada avanzada definido por EADTrust, y cambiando algunos aspectos lógicos por el uso de diferente tecnología, ahora es posible gestionar firmas electrónicas que emplean la voz como mecanismo de autenticación, y que además dan la certeza de la prestación del consentimiento, base para garantizar  la validez de los contratos.

La firma electrónica avanzada vocal queda embebida en un fichero PDF que se gestiona como un simple documento electrónico pero que permite cumplir el requerimiento de soporte duradero requerido en la recientemente aprobada Ley 3/2014 de reforma de la Ley de Consumidores y Usuarios.

Los sistemas cumplen principios semejantes a los definidos para la firma digitalizada y pueden ser auditados por especialistas. Llame al 91 7160555 para pedir más información sobre la Firma electrónica Vocal.

En una gradación de técnicas relacionadas con la gestión de identidad se pueden plantear tres niveles:

  • Identificación. Consiste en establecer elementos que permiten singularizar a un individuo
  • Autenticación. Consiste en confirmar que efectivamente un individuo es quien se ha identificado como tal.
  • Firma: Consiste en garantizar que se lleva a cabo la prestación del consentimiento respecto a la vinculación de un documento con un individuo correctamente autenticado.

La prestación del consentimiento puede establecerse en sentido negativo, en una forma semejante a esta:  “entendido el documento al que se vincula en este instante mi identidad confirmada, y aunque tengo potestad para ratificar o negar su contenido, no estoy de acuerdo con este“. Es decir, la vinculación con el documento no tiene por qué ser siempre en conformidad.

La identificación o autenticación basada en técnicas biométricas asociadas a la voz del interesado, que se vincula de forma criptográfica al contenido de un documento, crea una forma de contrato electrónico cuya firma cumple lo previsto en la Ley 59/2003 para la firma electrónica avanzada, tal como se indica en su artículo 3.

Pero no todas las técnicas son adecuadas para la firma electrónica, y por ello, es conveniente recurrir a especialistas que puedan apoyar en el diseño de la solución, y eventualmente, auditarla, garantizando que el proyecto ha adoptado las mejores prácticas y es incuestiionable en sede judicial.

 

Las empresas que despliegan sistemas de contratación a distancia basados en la voz pueden certificar gracias a EADTRUST que aplican las mejores prácticas y que empkean sistemas respetuosos con la protección de los consumidores.

Llame a EADTRUST al 902 365 612 o al 91 7160555 y concierte una cita para que nuestros expertos avancen una opinión sobre si su sistema puede ser auditado y recibir una calificación favorable, o si conviene introducir cambios en el para garantizar la validez legal del sistema final.

Del 12 al 14 de junio de 2014 tendrá lugar en Londres (en el Hotel Holiday Inn Bloomsbury)  la 54a Conferencia Internacional de Audio Forense.

La 54a Conferencia Internacional de Audio Forense (54th Conference on Audio Forensics) de AES  se dedica a explorar los avances en el campo de audio forense, proporcionando una plataforma para la investigación relacionada con la aplicación forense de procesamiento de voz y de señal, análisis acústico, la autenticación de audio, y el examen de las metodologías y de las mejores prácticas. Esta es la quinta conferencia AES dedicada a los avances técnicos y enfoques prácticos en vías de desarrollo en el campo de Audio Forense (conferencias pasadas: 2005200820102012).

Con la creciente asistencia en ediciones anteriores, esta conferencia se ha convertido en el centro neurálgico para los investigadores y profesionales, para intercambiar ideas y fomentar nuevos enfoques para hacer frente a los problemas que se están desarrollando todos los días. El programa de la conferencia incluirá presentaciones y discusiones de aspectos candentes, así como talleres sobre temas relacionados con las actividades de audio forense.

Los coordinadores de la organización son los siguientes:

Papers Co-Chair: Mike Brookes, Imperial College London
Papers Co-Chair: Durand Begault, Audio Forensic Center, Charles M. Salter Assoc.
Workshops Chair: Catalin Grigoras, National Center for Media Forensics

Exhibition Chair: Patrick Naylor, Imperial College London

La agenda preliminar, sujeta a cambios, es la siguiente:

Preliminary Schedule – 54th Conference on Audio Forensics

June 12 Keynote
Paper on Forensic Musicology
Papers Session on Forensic Speaker Recognition
Tutorial 1: Forensic Speaker Recognition
Welcome Reception: Grant Zoology Museum
June 13 Tutorial 2: Dereverberation
Papers Session on Reverberation
Tutorial 3: Digital Audio Authenticity
Papers Session on Audio Authenticity
Social Event
June 14 Tutorial 4: Speech Intelligibility
Papers Session on Speech Intelligibility
Papers Session on Gunshot Analysis

Tutorials

Forensic automatic speaker recognition with degraded and enhanced speech

Chair: Gordon Reid, CEDAR Audio Ltd (UK).

Presenters: Hermann Kunzel, University of Marburg (Germany), Paul Alexander, CEDAR Audio Ltd (UK), Antonio Moreno, Agnitio S.L. (Spain)

Speech Intelligibility

Gaston Hilkhuysen, University of Marseille (France)

Dereverberation

Patrick Naylor, Alastair Moore, and Christine Evers, Imperial College London (UK)

Digital Audio Authentication

Catalin Grigoras, University of Colorado Denver (US)

Papers

Gunshot Analysis

“GUNSHOT RECORDINGS FROM DIGITAL VOICE RECORDERS” Robert C. Maher and Steven R. Shaw

“THE EFFECT OF SAMPLE LENGTH ON CROSS-CORRELATION COMPARISONS OF RECORDED GUNSHOT SOUNDS” Douglas S. Lacey, Bruce E. Koenig, and Christina E. Reimond

Reverberation

“ROOM IDENTIFICATION USING ROOMPRINTS” Alastair H. Moore, Mike Brookes, and Patrick A. Naylor

“EVALUATION OF AN EXTENDED REVERBERATION DECAY TAIL METRIC AS A MEASURE OF PERCEIVED REVERBERATION” Hamza A. Javed and Patrick A. Naylor

“EXPLOITING SPARSITY FOR SOURCE SEPARATION USING THE SLIDING RATIO SIGNAL ALGORITHM” Ephraim Gower and Malcolm Hawksford

Authentication

“QUANTIZATION LEVEL ANALYSIS FOR FORENSIC MEDIA AUTHENTICATION” Catalin Grigoras and Jeff M. Smith

“FORENSIC AUTHENTICITY ANALYSES OF THE METADATA IN RE-ENCODED WAV FILES” Bruce E. Koenig and Douglas S. Lacey

“A MULTI-CODEC AUDIO DATASET FOR CODEC ANALYSIS AND TAMPERING DETECTION” Daniel Gärtner, Luca Cuccovillo, Sebastian Mann, and Patrick Aichroth

“REAL-TIME MONITORING OF ENF AND THD QUALITY PARAMETERS OF THE ELECTRICAL GRID IN PORTUGAL”Nuno Campos and Aníbal Ferreira

Speech Intelligibilty

“SPEECH ENHANCEMENT WITH MICROPHONE ARRAY USING FREQUENCY-DOMAIN ALIGNMENT TECHNIQUE”Mikhail Stolbov and Sergei Aleinik

“DIFFERENTIABLE APPROXIMATION TO SPEECH INTELLIGIBILITY INDEX WITH APPLICATIONS TO LISTENING ENHANCEMENT” Richard Stanton, Nikolay D. Gaubitch, Patrick Naylor, and Mike Brookes

Speaker Recognition

“A STUDY OF F0 AS A FUNCTION OF VOCAL EFFORT” Eddy B. Brixen

“FORENSIC VOICE COMPARISONS IN GERMAN WITH PHONETIC AND AUTOMATIC FEATURES USING VOCALISE SOFTWARE” Michael Jessen, Anil Alexander, and Oscar Forth

“EVALUATION RESULTS OF SPEAKER VERIFICATION FOR VOIP TRANSMISSION WITH PACKET LOSS” Joerg Bitzer, Christian Rollwage, and Martin Neumann

Forensics

“FORENSIC MUSICOLOGY: AN OVERVIEW” Durand R. Begault, Heather D. Heise, and Christopher Peltier

Social Events

Welcome Reception at the Grant Zoology Museum

Walking tour and dinner buffet (optional)

Keynote

Cognitive Bias in the Interpretation of Forensic Evidence

Dr. Itiel Dror, University College London (UK)

 

Alterar la voz de forma voluntaria es uno de los recursos más habituales utilizados por los delincuentes para enmascarar su identidad. La fonética forense o fonética judicial se encarga de tareas como la determinación del perfil fonético de un hablante (sexo, variedad dialectal, extracción social, etc.) o la comparación de muestras de voz de una persona sospechosa con una muestra previa de origen desconocido.

Dentro de este ámbito, el Laboratorio de Fonética del CSIC lleva a cabo el proyecto CIVIL (Cualidad Individual de Voz e Identificación de Locutor), que tiene como objetivo saber hasta qué punto la cualidad individual de la voz es determinante a la hora de identificar a una persona y cuáles son los rasgos de la voz que son resistentes a la distorsión y al disimulo.

Sobre este punto, en la serie o película en cuestión vemos siempre un ordenador en el que se analiza con claridad la onda de sonido que se mueve acompasada con la voz del presunto delincuente. Parece directo y sencillo, pero en la realidad, como cabe prever, este proceso es bastante más peliagudo.

Espectrograma

Espectrograma hecho con el programa Praat de la frase “¿Ha venido María?” / Laboratorio de Fonética del CSIC.

El aparato en cuestión es en verdad un espectrógrafo de sonido. Inventado en los años ’40, este aparato lleva a cabo el análisis de la onda sonora que generamos en nuestra laringe o en nuestra cavidad oral cuando hablamos. La comparación de dos muestras de habla con propósitos legales se ve facilitada cuando se usa el mismo equipo de grabación, cuando son muestras emitidas en la misma lengua, cuando el ruido ambiental es equivalente, el hablante se encuentra en las mismas condiciones emocionales y las muestras duran, como poco, 2,5 segundos. Es obvio que estas circunstancias no suelen darse en los casos reales, por lo que el trabajo de los fonetistas forenses resulta muy laborioso y  ha de ser realizado por un equipo de expertos.

El equipo de CIVIL está estudiando a su vez algunas de las voces ‘disimuladas’ más comunes: el falsetto (al estilo de los Bee Gees) y la conocida como creaky voice o vocal fry (una voz que ‘crepita’), característica de los hablantes californianos y de algunas actrices como Cameron Díaz o la cantante Britney Spears. De hecho, parece que hablar con este tipo de voz se ha puesto de moda entre chicas adolescentes en EE UU.

Dentro del proyecto de fonética forense, ya han conseguido crear un corpus de 100 voces ‘disimuladas’, para lo que han pedido a los hablantes que proporcionen muestras de habla normal y de habla ‘fingida’.

Este artículo está basado en el escrito por Mar Gulís (del CSIC) titulado Fonética forense o cómo identificar la voz del secuestrador

« Older entries § Newer entries »