Como había puesto en una entrada anterior, la biometría es la parte de la biología que estudia en forma cuantitativa la variabilidad individual de los seres vivos utilizando métodos estadísticos.
La biometría se puso en práctica en Occidente a partir del S.XIX, pero en el aspecto informático, no se empezó a utilizar hasta avanzado el siglo XX.
La idea para usar patrones de iris como método de identificación fue propuesto en 1936 por el oftalmólogo Frank Burch, pero no se había podido crear.
En 1985 los doctores Leonard Flom y Aran Safir retomaron la idea. Su investigación y documentación les concedió una patente en 1987. En 1989 Flom y Safir recurrieron a John Daugman para crear algoritmos para el reconocimiento de iris. Estos algoritmos, patentados por Daugman en 1994 y que son propiedad de Iridian Technologies, son la base para todos los productos de reconocimiento de iris.
En 1975, El FBI fundo el desarrollo de escáneres de huella dactilar para clasificadores automatizados y tecnología de extracción de minucias, lo cual condujo al desarrollo de un lector prototipo. Este primer lector usaba técnicas capacitivas para recoger las minucias. En ese momento solo los datos biográficos de los individuos, la clasificación de los datos de huellas dactilares y las minucias eran almacenados a causa de que el costo de almacenamiento de las imágenes digitales de las huellas dactilares era prohibitivo. Durante las pocas próximas décadas, el NIST se enfocó y condujo a desarrollos en los métodos automáticos para digitalizar las huellas dactilares en tinta y los efectos de compresión de imagen en la calidad de la imagen, la clasificación, extracción de minucias, y concordancia.
La verificación del orador, ha evolucionado a la par que las tecnologías de reconocimiento de voz y de síntesis de discurso dado las similares características y desafíos que cada una conlleva. En 1960, Gunnar Fant, un profesor sueco publicó un modelo que describía los componentes psicológicos de la producción de habla acústica, basado en el análisis de rayos x de individuos produciendo sonidos fónicos específicos. En 1970, el Dr. Joseph Perkell utilizo rayos x en movimiento e incorporó la lengua y quijada para expandir el modelo de Fant. Los sistemas de reconocimiento de discurso originales utilizaban el resultado promedio de varios filtros analógicos para buscar coincidencias, muchas veces con la ayuda de humanos en el camino. En 1976, Texas Instruments construyó un sistema de prototipo que fue testeado por la Fuerza Aérea de los Estados Unidos y la Corporación MITRE. A mediados de los 80s, el Instituto Nacional de Estándares y Tecnología (NIST) desarrolló el Grupo de Discurso NIST para estudiar y promover el uso de técnicas de procesamiento de discurso. Desde 1996, bajo la creación de la Agencia Nacional de Seguridad (NSA), el Grupo de Discurso de NIST ha llevado a cabo evaluaciones anuales, el Workshop de Evaluación de Reconocimiento de Voz, para fomentar el continuo avance de la comunidad de reconocimiento de voz.
No hay comentarios:
Publicar un comentario