Aplikacja MoodCapture wykrywa depresję
Badacze z Dartmouth donoszą, że opracowali pierwszą aplikację na smartfony, która wykorzystuje sztuczną inteligencję w połączeniu z oprogramowaniem do przetwarzania obrazu twarzy, aby niezawodnie wykrywać początek depresji, zanim użytkownik w ogóle zorientuje się, że coś jest nie tak.
Aplikacja o nazwie MoodCapture wykorzystuje przedni aparat telefonu do rejestrowania wyrazu twarzy i otoczenia podczas regularnego używania, a następnie ocenia obrazy pod kątem objawów klinicznych związanych z depresją. W badaniu obejmującym 177 osób, u których zdiagnozowano duże zaburzenie depresyjne, aplikacja poprawnie zidentyfikowała wczesne objawy depresji z 75% dokładnością.
Wyniki te sugerują, że technologia ta może być publicznie dostępna w ciągu najbliższych pięciu lat, po dalszym rozwoju, twierdzą naukowcy z Wydziału Informatyki i Szkoły Medycznej Geisel.
Zespół opublikował swoje ustalenia w bazie danych preprintów arXiv 27 lutego przed zaprezentowaniem ich na majowej konferencji CHI 2024 stowarzyszenia Association of Computing Machinery. Artykuły prezentowane w CHI są recenzowane przed akceptacją i zostaną opublikowane w materiałach konferencyjnych.
„Po raz pierwszy do przewidywania depresji wykorzystano naturalne obrazy z dzikiej przyrody” – mówi Andrew Campbell, autor korespondujący z artykułem i profesor informatyki z trzeciego wieku Alberta Bradleya z 1915 r. „Zaistniał ruch na rzecz cyfrowej technologii zdrowia psychicznego, aby ostatecznie opracować narzędzie, które w niezawodny i nieinwazyjny sposób będzie w stanie przewidzieć nastrój osób, u których zdiagnozowano poważną depresję”.
„Ludzie korzystają z oprogramowania do rozpoznawania twarzy, aby odblokowywać swoje telefony setki razy dziennie” – mówi Campbell, którego telefon pokazał niedawno, że zrobił to ponad 800 razy w ciągu tygodnia.
„MoodCapture wykorzystuje podobną technologię rozpoznawania twarzy z głębokim uczeniem się i sprzętem AI, zatem istnieje ogromny potencjał skalowania tej technologii bez dodatkowego wkładu i obciążania użytkownika” – mówi. „Osoba po prostu odblokowuje swój telefon, a MoodCapture zna dynamikę jej depresji i może zasugerować, aby szukała pomocy”.
Na potrzeby badania aplikacja przechwyciła 125 000 zdjęć uczestników w ciągu 90 dni. Osoby biorące udział w badaniu zgodziły się na robienie sobie zdjęć przednim aparatem w telefonie, ale nie wiedziały, kiedy to się dzieje.
Pierwsza grupa uczestników została wykorzystana do zaprogramowania MoodCapture w celu rozpoznawania depresji. Fotografowano ich w przypadkowych seriach za pomocą przedniego aparatu telefonu, gdy odpowiadali na stwierdzenie: „Czułem się przygnębiony, przygnębiony lub beznadziejny”. Podpowiedź pochodzi z ośmiopunktowego Kwestionariusza Zdrowia Pacjenta, w skrócie PHQ-8, używanego przez lekarzy do wykrywania i monitorowania ciężkiej depresji.
Naukowcy wykorzystali sztuczną inteligencję do analizy obrazu na tych zdjęciach, aby model predykcyjny MoodCapture mógł nauczyć się korelować samoopisy o poczuciu depresji z określonymi wyrazami twarzy – takimi jak spojrzenie, ruchy oczu, położenie głowy i sztywność mięśni – oraz cechami środowiskowymi, takimi jak jak dominujące kolory, oświetlenie, lokalizacje zdjęć i liczba osób na zdjęciu.
Koncepcja polega na tym, że za każdym razem, gdy użytkownik odblokowuje telefon, MoodCapture analizuje sekwencję obrazów w czasie rzeczywistym. Model sztucznej inteligencji rysuje powiązania między wyrażeniami a szczegółami tła, które uznano za ważne w przewidywaniu ciężkości depresji. Z biegiem czasu MoodCapture identyfikuje cechy obrazu specyficzne dla użytkownika. Na przykład, jeśli ktoś stale pojawia się z ponurą miną w słabo oświetlonym pokoju przez dłuższy czas, model sztucznej inteligencji może wywnioskować, że ta osoba doświadcza początku depresji.
Aby przetestować model predykcyjny, badacze poprosili osobną grupę uczestników o udzielenie odpowiedzi na to samo pytanie PHQ-8, podczas gdy MoodCapture ich fotografował. Oprogramowanie przeanalizowało te zdjęcia pod kątem wskaźników depresji na podstawie danych zebranych z pierwszej grupy. To właśnie ta druga grupa, w przypadku której AI MoodCapture poprawnie określiła, czy miała depresję, czy nie, z dokładnością do 75%.
„To pokazuje drogę do potężnego narzędzia do biernej oceny nastroju danej osoby i wykorzystania danych jako podstawy do interwencji terapeutycznej” – mówi Campbell, zauważając, że progiem opłacalnego czujnika byłaby dokładność na poziomie 90%. „Mam wrażenie, że taka technologia mogłaby być dostępna publicznie w ciągu pięciu lat. Pokazaliśmy, że jest to wykonalne.”
Według Nicholasa Jacobsona, współautora badania i adiunkta w dziedzinie analityki danych biomedycznych i psychiatrii w Centrum Technologii i Zdrowia Behawioralnego w Dartmouth, MoodCapture spotyka się z poważną depresją w nieregularnym okresie, w którym ona występuje.
Wiele naszych interwencji terapeutycznych w leczeniu depresji koncentruje się na dłuższych okresach czasu, ale u tych osób w ich stanie występują przypływy i odpływy. Tradycyjne oceny nie uwzględniają większości tego, czym jest depresja” – stwierdził Jacobson, który kieruje laboratorium AI and Mental Health: Innovation in Technology Guided Healthcare (AIM HIGH).
Naszym celem jest uchwycenie zmian w objawach, których doświadczają osoby cierpiące na depresję w codziennym życiu” – mówi Jacobson. „Jeśli uda nam się to wykorzystać do przewidywania i zrozumienia szybkich zmian w objawach depresji, będziemy w stanie ostatecznie im zapobiec i leczyć. Im bardziej skupimy się na danej chwili, tym mniej głębokie będą skutki depresji.
Jacobson przewiduje, że technologie takie jak MoodCapture mogą pomóc w zamknięciu znaczącej luki pomiędzy potrzebą interwencji osób cierpiących na depresję a faktycznym dostępem do zasobów związanych ze zdrowiem psychicznym. Mówi, że średnio mniej niż 1% życia człowieka spędza się u lekarza, takiego jak psychiatra. „Celem tych technologii jest zapewnienie większego wsparcia w czasie rzeczywistym bez dodatkowego obciążania systemu opieki” – mówi Jacobson.
Aplikacja oparta na sztucznej inteligencji, taka jak MoodCapture, idealnie sugerowałaby środki zapobiegawcze, takie jak wyjście na zewnątrz lub spotkanie z przyjacielem, zamiast wyraźnie informować osobę, że może wejść w stan depresji, mówi Jacobson.
„Poinformowanie kogoś, że dzieje się z nim coś złego, może pogorszyć sytuację” – mówi. „Uważamy, że MoodCapture otwiera drzwi do narzędzi oceny, które pomogą wykryć depresję na chwilę przed jej pogorszeniem. Zastosowania te należy połączyć z interwencjami, które aktywnie próbują przerwać depresję, zanim się rozszerzy i ewoluuje. Nieco ponad dziesięć lat temu taki rodzaj pracy byłby niewyobrażalny”.
Badanie pochodzi z grantu Jacobsona otrzymanego od Narodowego Instytutu Zdrowia Psychicznego i dotyczy wykorzystania głębokiego uczenia się i pasywnego gromadzenia danych do wykrywania objawów depresji w czasie rzeczywistym. Opiera się również na badaniu przeprowadzonym w 2012 roku przez laboratorium Campbella, w ramach którego zebrano pasywne i automatyczne dane z telefonów uczestników Dartmouth w celu oceny ich zdrowia psychicznego.
Jednak od tego czasu rozwój aparatów w smartfonach pozwolił naukowcom wyraźnie uchwycić rodzaj pasywnych zdjęć, które byłyby robione podczas normalnego użytkowania telefonu, mówi Campbell. Campbell jest dyrektorem ds. nowych technologii i analityki danych w Centrum Technologii i Zdrowia Behawioralnego, gdzie kieruje zespołem opracowującym mobilne czujniki, które mogą śledzić takie wskaźniki, jak stan emocjonalny i wydajność pracy, w oparciu o dane pasywne.
Nowe badanie pokazuje, że zdjęcia pasywne są kluczem do skutecznych mobilnych narzędzi terapeutycznych, mówi Campbell. Oddają nastrój dokładniej i częściej niż selfie generowane przez użytkowników i nie odstraszają użytkowników wymaganiem aktywnego zaangażowania. „Te neutralne zdjęcia bardzo przypominają zobaczenie kogoś w chwili, gdy nie zakłada ona okleiny, co poprawiło skuteczność naszego modelu przewidywania wyrazu twarzy” – mówi Campbell.
Subigya Nepal, doktorantka Guarini School of Graduate and Advanced Studies w grupie badawczej Campbella, która wraz z doktorantem Guarini Arvindem Pillai jest współautorem badania, twierdzi, że kolejne kroki w ramach MoodCapture obejmują szkolenie sztucznej inteligencji w zakresie większej różnorodności uczestników, poprawiając jego zdolność diagnostyczną i wzmacniając środki ochrony prywatności.
Naukowcy przewidują wersję MoodCapture, w której zdjęcia nigdy nie będą opuszczać telefonu – mówi Nepal. Zamiast tego zdjęcia byłyby przetwarzane na urządzeniu użytkownika w celu wyodrębnienia wyrazu twarzy związanego z depresją i przekształcenia go w kod modelu sztucznej inteligencji. „Nawet jeśli dane kiedykolwiek opuszczą urządzenie, nie będzie możliwości ponownego złożenia ich w obraz identyfikujący użytkownika” – mówi.
Tymczasem dokładność aplikacji po stronie konsumenta mogłaby zostać zwiększona, gdyby sztuczna inteligencja została zaprojektowana tak, aby poszerzać swoją wiedzę w oparciu o mimikę konkretnej osoby, która z niej korzysta – twierdzi Nepal.
„Nie trzeba zaczynać od zera — wiemy, że ogólny model jest dokładny w 75%, więc dane konkretnej osoby można wykorzystać do udoskonalenia modelu. Urządzenia w ciągu najbliższych kilku lat powinny z łatwością sobie z tym poradzić” – mówi Nepal. „Wiemy, że wyraz twarzy wskazuje na stan emocjonalny. Nasze badanie stanowi dowód, że jeśli chodzi o wykorzystanie technologii do oceny zdrowia psychicznego, są one jednym z najważniejszych sygnałów, jakie możemy uzyskać”.
Marzec 2024
Artykuł „Phone App Uses AI to Detect Depression From Facial Cues”
home. dartmouth. edu