Google trenuje algorytmy w rozpoznawaniu mowy osób z zespołem Downa
Algorytmy do rozpoznawania i przetwarzania głosu to przyszłość technologii. Postępy w rozpoznawaniu mowy, sztuczna inteligencja i olbrzymia moc obliczeniowa maszyn sprawiły, że możemy odchodzić dziś od ekranów komputerów i telefonów, nawiązując kontakt z produktami inteligentnego domu za pomocą komend głosowych. Dzięki wirtualnym asystentom – takim jak Siri Apple'a czy Alexa Amazona – sterujemy tysiącami inteligentnych urządzeń, po prostu mówiąc. Jak podaje serwis TechCrunch, w 2023 r. będzie w użyciu 8 miliardów cyfrowych asystentów głosowych.
Jednak dla osób z unikalnymi wzorami mowy rozwiązania te są niedostępne – z tego prostego powodu, że technologia rozpoznawania mowy nie rozumie, co one mówią.
Wykluczeni z technologii
Choć interfejsy głosowe są już teraz sprzedawane w milionach produktów – od smartfonów i zegarków przez pojazdy po urządzenia domowe – a systemy te oferują nieskończone możliwości lepszego życia, to nie mogą być użytkowane przez tych, którzy skorzystaliby na nich najbardziej: osoby niepełnosprawne. Automatyczne rozpoznawanie mowy może znacznie poprawić zdolność osób z upośledzeniem mowy do interakcji z codziennymi inteligentnymi urządzeniami i po prostu ułatwić życie. Pod warunkiem, że usunięta zostanie pewna przeszkoda.
– Po wyjęciu z pudełka moduł rozpoznawania mowy Google'a nie rozpoznaje co trzeciego słowa osoby z zespołem Downa, co sprawia, że technologia ta nie jest zbyt użyteczna – mówi inżynier Google'a Jimmy Tobin w filmie wideo przedstawiającym projekt.
Systemy do rozpoznawania głosu zostały przeszkolone przede wszystkim w zakresie typowej mowy. A nie wszyscy przecież mówimy tak samo.
Oddaj swój głos
Google postanowił zmierzyć się z tym problemem i uruchomił „Projekt: Zrozumiany". W ramach tej inicjatywy koncern nawiązał współpracę z kanadyjskim Towarzystwem Osób z Zespołem Downa (Canadian Down Syndrome Society), które pomaga mu zyskać nagrania głosowe swoich podopiecznych. Dzięki temu koncern będzie mógł szkolić sztuczną inteligencję w rozpoznawaniu mowy takich osób. Aby było to możliwe, Google musi zebrać 500 „darowizn" – nagrań głosowych od osób z zespołem Downa. Jest w połowie drogi do osiągnięcia tego celu.
– Kiedy się to uda, asystenci głosowi oferujący oparte na sztucznej inteligencji harmonogramy, przypomnienia i narzędzia poprawiające jakość życia pozwolą osobom z zespołem Downa żyć bardziej samodzielnie – mówi Matt MacNeil, który ma zespół Downa i współpracuje z Google'em nad projektem.
Gerd Altmann – Pixabay