A photoplethysmography-based system for talking detection in bedridden patients
No Thumbnail Available
Date
2023
Journal Title
Journal ISSN
Volume Title
Publisher
Elsevier Ltd
Abstract
Background and objectives
Verbal interaction may help bedridden patients to manage or prevent frustration, anxiety, and depression caused by the restrictions they find when performing daily living activities. In this regard, automatic monitoring of how long and often bedridden patients talk could help to identify who is at risk. A considerable body of work has focused on using sensing devices to capture and quantify speech events. However, such approaches may raise privacy concerns and produce discomfort. This study introduces a non-invasive, easy-to-deploy, and privacy-protective system based on photoplethysmography (PPG) to detect talking in bedridden patients.
Method
Raw finger PPG signals were acquired from 36 participants who were lying in a bed for six minutes within which they were allowed to talk. We averaged six features extracted from PPG records and investigated statistically significant differences and effect sizes between silence and talking periods. Features showing statistically significant differences and moderate-to-high effect sizes were normalized to train a single perceptron and a binomial logistic regression.
Results
The absolute amplitude, the pulse amplitude, and the interpulse interval of PPG waveforms decreased significantly with talking and showed moderate-to-high effect sizes. Using the abovementioned features, the perceptron and the logistic regression achieved classification accuracies of 88.89% and 94.12%, respectively.
Conclusions
Results showed that it is possible to detect speech events in individuals with restricted mobility by tracking changes in the PPG signal's contour. Future work should aim to discriminate talking-driven effects on PPG signals during physical activity and establish validation criteria for correctly identifying speech events.
Description
Antecedentes y objetivos
La interacción verbal puede ayudar a los pacientes encamados a gestionar o prevenir la frustración, la ansiedad y la depresión causadas por las restricciones que encuentran a la hora de realizar las actividades de la vida diaria. En este sentido, la monitorización automática de cuánto tiempo y con qué frecuencia hablan los pacientes encamados podría ayudar a identificar quiénes están en situación de riesgo. Un número considerable de trabajos se ha centrado en el uso de dispositivos sensores para capturar y cuantificar los eventos del habla. Sin embargo, estos enfoques pueden plantear problemas de privacidad y producir incomodidad. Este estudio presenta un sistema no invasivo, fácil de instalar y que protege la intimidad basado en la fotopletismografía (PPG) para detectar el habla en pacientes encamados.
Método
Se adquirieron señales PPG sin procesar de los dedos de 36 participantes que estuvieron tumbados en una cama durante seis minutos en los que se les permitió hablar. Se promediaron seis características extraídas de los registros de PPG y se investigaron las diferencias estadísticamente significativas y los tamaños de los efectos entre los periodos de silencio y de habla. Las características que mostraban diferencias estadísticamente significativas y tamaños de efecto de moderados a altos se normalizaron para entrenar un único perceptrón y una regresión logística binomial.
Resultados
La amplitud absoluta, la amplitud del pulso y el intervalo entre pulsos de las formas de onda PPG disminuyeron significativamente al hablar y mostraron tamaños de efecto de moderados a altos. Utilizando las características mencionadas, el perceptrón y la regresión logística alcanzaron precisiones de clasificación del 88,89% y el 94,12%, respectivamente.
Conclusiones
Los resultados mostraron que es posible detectar eventos del habla en individuos con movilidad restringida mediante el seguimiento de los cambios en el contorno de la señal PPG. Los trabajos futuros deberían tener como objetivo discriminar los efectos del habla en las señales PPG durante la actividad física y establecer criterios de validación para identificar correctamente los eventos del habla.
Keywords
Citation
Argüello-Prada, E. J., Cantín, M. A. D., & Victoria, J. C. (2023). A photoplethysmography-based system for talking detection in bedridden patients. Biomedical Signal Processing and Control, 81(November 2022), 0–5. https://doi.org/10.1016/j.bspc.2022.104477