EchoVis to projekt badawczo rozwojowy mający na celu wspieranie nauki echolokacji – umiejętności orientowania się w przestrzeni przy użyciu odbitych fal dźwiękowych. Główna grupa docelowa to osoby z dysfunkcją wzroku, dla których echolokacja może stanowić realne wsparcie w codziennym życiu.
Aby jednak nauczyć jej w sposób kontrolowany i bezpieczny, musieliśmy opracować szereg rozwiązań mobilnych i zastosować je w grze na systemy iOS oraz Android. Wyzwanie polegało na tym, że aplikacja ta nie posiadała typowego graficznego interfejsu użytkownika, a mimo to musiała spełniać wymogi WCAG – standardów dostępności cyfrowej m.in. dla osób niewidomych.
Badania
Jednym z pierwszych etapów prac była analiza możliwych form komunikacji pomiędzy użytkownikiem a aplikacją. Skoncentrowaliśmy się na tym, jakie mechanizmy interakcji są dla osób niewidomych najbardziej naturalne. Badania miały na celu przygotowanie gruntu pod wybór bibliotek, frameworków oraz zaprojektowaniu odpowiedniego UX/UI.
Aby zebrać konkretne dane i opinie, stworzyliśmy aplikację testową o nazwie UITester, przeznaczoną zarówno na iOS, jak i Androida. UITester umożliwiał prezentowanie kolejnych elementów interfejsu użytkownika w różnych wariantach sposobu obsługi. Celem tego eksperymentu był dobór takich wariantów, które są najwygodniejsze i najbardziej intuicyjne.
Badania polegały na tym, że testerzy dostawali do przetestowania konkretny element interfejsu – np. przycisk, przełącznik, wybór opcji czy przechodzenie między ekranami – w kilku wariantach sposobu obsługi. Po zakończeniu każdego testu proszeni byli o ocenę wygody oraz wskazanie preferowanej wersji elementu. Dzięki temu zebraliśmy feedback, na podstawie którego można było przejść do wyboru narzędzi oraz zaprojektować nasze kolejne produkty.
Wybór narzędzi
Na podstawie wyników badań przeszliśmy do kolejnego etapu – doboru technologii. Klasyczne mobilne rozwiązania natywne oferują rozbudowane wsparcie dla dostępności (np. VoiceOver w iOS, TalkBack w Androidzie). Potrzebowaliśmy jednak większej elastyczności, która pozwoli na integrację dodatkowych bibliotek dźwiękowych a także rozszerzoną kontrolę nad środowiskiem 3D. Skłoniło nas to do wyboru silnika gry UnityEngine, wspierającego także doskonale multi-platformowość.
Unity umożliwia publikowanie aplikacji na wiele platform, co jest jego ogromnym atutem. Niestety, domyślnie nie wspiera on rozwiązań dostępnościowych na poziomie natywnym. W praktyce oznacza to, że żadne systemowe czytniki ekranu nie są w stanie odczytać elementów UI stworzonych w Unity. Aby rozwiązać ten problem, wykorzystaliśmy wtyczkę User Accessibility Plugin (UAP), która pozwala na pełną kontrolę nad aplikacją za pomocą gestów wykonywanych po ekranie. Co istotne, wtyczkę można było dowolnie modyfikować w języku C#, co dało nam możliwość wdrażania nietypowych funkcji, jak np. obsługa nowych gestów interakcji z elementami UI.
EchoVis Quiz
Pierwszym komercyjnym krokiem był EchoVis Quiz – aplikacja typu quiz, w której użytkownik odpowiadał na pytania i zdobywał punkty. Była to forma grywalizacji i wstępnej nauki, utrzymana w lekkiej formule „challenge’u”.
Aplikacja bazowała w zasadzie na kodzie AudioTestera – wcześniejszego narzędzia badawczego, które testowało reakcje użytkowników (widzących i niewidzących) na realnie nagrane dźwięki. Dlatego nie było jeszcze potrzeby implementacji tej gry w środowisku UnityEngine.
Echovis – nauka echolokacji
Kolejnym krokiem rozwojowym było stworzenie pierwszej gry edukacyjnej – EchoVis Street. Gracz ma za zadanie przejść przez wirtualną, zatłoczoną ulicę, opierając się wyłącznie na zmysłach słuchu. Gra została zbudowana w Unity i stanowiła wyzwanie nie tylko projektowe, ale i technologiczne – musieliśmy oddzielić funkcjonalność poruszania się po interfejsie od samej rozgrywki. Wymagało to gruntownej modyfikacji pluginu UAP, by sprostać potrzebom zarówno dostępności, jak i interaktywnej rozgrywki 3D.
Następnym produktem był EchoVis Game – gra mobilna, w której użytkownik musi przejść z jednego punktu do drugiego, omijając różnego rodzaju przeszkody. Cała nawigacja opiera się na wykorzystaniu zjawisk dźwiękowych: odbicia dźwięku, jego kierunkowości, natężenia i wysokości. Gracz musi nauczyć się interpretować sygnały audio w sposób pozwalający mu zbudować „mentalną mapę” otoczenia. To był prawdziwy sprawdzian możliwości Unity, wykorzystanych bibliotek oraz naszego podejścia do UX bez graficznego UI.
Podsumowanie
Projekt EchoVis pokazał, że można stworzyć aplikację w pełni zgodną z zasadami dostępności, mimo braku klasycznego interfejsu graficznego. Kluczowe było połączenie badań z użytkownikami, odpowiedniego doboru technologii oraz umiejętności technicznych pozwalających na elastyczne dostosowywanie narzędzi. Współpraca ze społecznością osób niewidomych pozwoliła nam na głębsze zrozumienie ich potrzeb, a wykorzystanie silnika Unity – na stworzenie aplikacji dostępnych, skalowalnych i nowatorskich. To dowód na to, że dostępność nie musi być ograniczeniem – może być impulsem do tworzenia czegoś zupełnie nowego.