Sí, es posible medir los niveles de estrés con un grado razonable de precisión utilizando solo una alimentación de video normal. Es posible decir por los ojos, la boca y otras expresiones faciales que alguien está estresado, cansado o feliz.
Mi primer enfoque para este problema sería utilizar una red de conexión con una capa de salida softmax con dos salidas, una correspondiente a estresada y la otra a no estresada . El uso de softmax hace que la salida sea un indicador probabilístico del estado de estrés.
Luego entrene este sistema con conjuntos de datos etiquetados apropiados. Obviamente, no es tan fácil poner en funcionamiento un sistema de aprendizaje profundo, pero después de varios ajustes de hiperparámetros, el sistema debería poder funcionar con un nivel aceptable de precisión.
- ¿Qué patrones de diseño se usan popularmente en el desarrollo de software?
- ¿Qué distingue al 1% superior de los profesionales de control de calidad del 10% superior?
- ¿Cuál es la diferencia entre un desarrollador senior y un desarrollador líder?
- ¿Qué es un modelo de cascada modificado?
- ¿Debería una empresa tener reglas sobre qué idiomas se pueden usar internamente? ¿Qué hay de las reglas para las plataformas de código abierto?
El problema aquí es que para el estado no estresado , necesitará muchos más datos que para el estado estresado. Los dos combinados necesitarán una cantidad aún mayor de datos de entrenamiento que no es fácil de obtener.
El enfoque anterior no usa información temporal, solo toma un cuadro a la vez. Una mejora sería tomar N cuadros del video, esto significa que la entrada a la convNet sería NxWxHxI dimensiones dado que W corresponde al ancho y H a la altura del cuadro e I es 3 para RGB, 1 para monocromo y 4 para RGB + infrarrojo.
Puede trabajar con fuentes de video RGB o con una combinación de RGB e infrarrojos. Lo último funcionaría mejor porque es posible medir la cantidad de sangre que fluye en la cara en función del estrés.
Espero que esto ayude.