Aquí hay una especie de respuesta estilo ‘leyenda urbana’. En un episodio de NCIS, un autor hizo un molde de látex de la garganta de un individuo (fallecido), y podría usar un modelo de software para generar un discurso que sonara como esa persona. No recuerdo en qué estación, etc., pero es posible que ese punto clave de la trama del episodio se base en alguna tecnología conocida pero nueva.
Sin hacer eso, creo que uno podría tomar uno o varios de los muchos modelos matemáticos utilizados en el reconocimiento y / o generación del habla y ‘ajustarlo’ para que coincida con un individuo dado, siempre que haya suficientes ejemplos del habla de ese individuo. Por supuesto, hay varios niveles: el nivel más bajo de generación de sonido, el vocabulario elegido, las frases comunes utilizadas, las pausas entre palabras (a menudo para efectos emocionales), la entonación general, etc. (Por ejemplo, piense en cuántas formas * diferentes * podría decir algo tan simple como “adiós” u “OK”, ¿de acuerdo?)
Creo que eventualmente tanto la acústica como los movimientos corporales de los actores podrán capturarse y usarse, en un sentido virtual, en nuevas películas. Me sorprende que aún no haya sucedido.
- ¿Cómo afecta la cultura corporativa y organizacional al proceso de desarrollo de software?
- ¿Cuáles son las habilidades de programación / ingeniería de software más demandadas?
- ¿Qué calificación es esencial para convertirse en un arquitecto de software?
- ¿Cómo se sienten los ingenieros de las compañías tecnológicas acerca de la profesión contable?
- ¿Scrum realmente funciona para equipos de desarrollo de software distribuido?