Wyobraź sobie, że zamiast rzucać szybkie „poproszę latte”, musisz wygestykulować zamówienie przed głuchym baristą. W londyńskiej Dialogue Cafe to chleb powszedni, a sztuczna inteligencja właśnie wchodzi do gry z awatarami, które pomigają za Ciebie. Czy technologia wreszcie skutecznie rozbije mury dzielące świat ciszy od świata dźwięków?

TL;DR

  • W londyńskiej kawiarni prowadzonej przez głuchych bariści uczą słyszących klientów BSL (brytyjskiego języka migowego) za pomocą interaktywnych wideo-menu.
  • Projekt SignGPT (z budżetem ponad 8 mln funtów) tworzy zaawansowane modele językowe do dwukierunkowego tłumaczenia migowy-angielski w czasie rzeczywistym.
  • Eksperci odchodzą od niepraktycznych rękawic czy czujników ruchu na rzecz fotorealistycznych awatarów AI, które rozumieją emocje i regionalne dialekty.
  • Kluczem do sukcesu nowych technologii (jak Silence Speaks) jest aktywny udział osób głuchych w procesie programowania, co pozwala uniknąć błędów z przeszłości.
  • AI świetnie radzi sobie z zamówieniem kawy, ale wciąż ma trudności z precyzją wymaganą w medycynie czy prawie, gdzie niuanse gramatyczne języka migowego są kluczowe.

Dialogue Cafe – kawa jako lekcja migowego

Na University of East London prężnie działa Dialogue Cafe, miejsce dowodzone przez głuchych i słabosłyszących baristów. Zapomnij o nudnym menu – tutaj ekrany serwują instruktażowe wideo w brytyjskim języku migowym (BSL), pokazując jak zamówić latte czy muffina. Wesley Hartwell, wykładowca bez wad słuchu, przyznaje, że początkowo omijał kawiarnię szerokim łukiem ze stresu, ale dziś planuje pełny kurs BSL. To właśnie wideo-menu dało mu niezbędną pewność siebie.

Victor Olaniyan, barista z pięcioletnim doświadczeniem i student rachunkowości na University of Reading, do reakcji słyszących podchodzi z dystansem. Wychowany w słyszącej rodzinie, świetnie odnajduje się w obu światach, ale docenia technologię, która pomaga klientom przełamać lęk przed nieznanym. Hakan Elbir, założyciel Dialogue Hub stojący za tym konceptem, stawia na doświadczenia sensoryczne łączące ludzi – kawa to dla niego tylko pretekst do nawiązania dialogu.

To nie jest odosobniony przypadek: Dialogue Hub regularnie organizuje warsztaty BSL i kawiarnie typu „pop-up”, takie jak Dialogue Express Cafe. Tam głusi bariści, przeszkoleni przez organizację, biorą sprawy w swoje ręce i obsługują tłumy. Efekt? Słyszący klienci zaczynają migać, a bariery komunikacyjne kruszeją przy każdym kolejnym zamówieniu.

Eksplozja AI w mostkowaniu świata głuchych i słyszących

Ostatnie dwa lata to prawdziwy wysyp rozwiązań opartych na sztucznej inteligencji, które próbują połączyć świat migany z mówionym. Startup Silence Speaks stworzył system awatarów przekładających tekst na BSL, dbając o kontekst, emocje i regionalne niuanse. To odpowiedź na gigantyczny brak tłumaczy dla 70 milionów osób głuchych na całym świecie. W samej Wielkiej Brytanii 151 tysięcy osób używa BSL, z czego dla 25 tysięcy jest to język ojczysty z własną, unikalną gramatyką, a nie tylko wizualna wersja angielskiego.

SignGPT, brytyjski projekt z budżetem rzędu 8,45 miliona funtów od EPSRC, idzie o krok dalej, rozwijając duże modele językowe (LLM) do pełnego, dwukierunkowego tłumaczenia BSL-angielski. Inicjatywa prowadzona przez University of Surrey we współpracy z UCL i Oxfordem, tworzy obecnie największy na świecie zbiór danych migowych. Prof. Bencie Woll z Deafness, Cognition and Language Research Centre na UCL zauważa, że tempo zmian jest zawrotne – kiedyś osoby głuche zostawały w tyle za nowinkami, dziś są w samym centrum technologicznego boomu.

Dr Lauren Ward z Royal National Institute for Deaf People (RNID) trzyma rękę na pulsie rozwoju AI dla społeczności głuchych, zatrudniając wyspecjalizowanych inżynierów. Tak jak SMS-y w latach 90. zrewolucjonizowały ich życie, tak teraz uczenie maszynowe pozwala na przetwarzanie ogromnych zbiorów danych migowych. Kluczem do sukcesu jest jednak jakość tych danych oraz aktywny udział głuchych badaczy w procesie tworzenia narzędzi.

SignGPT i Silence Speaks – konkrety projektów

SignGPT to ambitny, pięcioletni program budujący generatywne transformery predykcyjne dla języków migowych. W pakiecie otrzymujemy fotorealistyczne awatary i narzędzia do niemal nieograniczonego tłumaczenia. Zamiast polegać na przestarzałych bazach danych z udziałem tłumaczy, projekt stawia na naturalność – przykładem jest nowa współpraca UK-Japan o wartości 3,5 miliona funtów z University of Surrey, gdzie AI trenuje się na autentycznych rozmowach osób głuchych.

Silence Speaks, startup stworzony przez osoby głuche dla głuchych, skupia się na przekładzie tekstu na BSL z uwzględnieniem lokalnych dialektów. Inkluzja nie jest tu tylko modnym hasłem, ale fundamentem – awatary migają treści stron internetowych czy filmów, łatając dziury tam, gdzie brakuje żywych tłumaczy. Podobnie jak Vasco Q1 radzi sobie z językami mówionymi, te narzędzia mają stać się pomostem w codziennych sytuacjach.

Mimo entuzjazmu, badacze oceniają te systemy z pewną rezerwą: AI świetnie radzi sobie z podstawami, ale wciąż potrafi polec na lingwistycznych niuansach i kontekście, co jest krytyczne w prawie czy medycynie. Główne filary tych projektów to:

  • SignGPT: dwukierunkowe modele LLM, potężny zbiór danych i fotorealistyczne awatary.
  • Silence Speaks: awatary text-to-BSL z ładunkiem emocjonalnym, tworzone pod okiem społeczności.
  • UK-Japan: nacisk na dane z realnych rozmów, by uniknąć błędów wynikających ze sztywnego stylu tłumaczy.

Pułapki z przeszłości i ryzyka obecne

Prof. Bencie Woll ostrzega: historia technologii dla głuchych to cmentarzysko nietrafionych pomysłów. Rękawice odczytujące gesty, kombinezony tłumaczące czy kamery montowane na głowie – większość tych gadżetów poległa, bo projektowali je słyszący inżynierowie bez konsultacji z ekspertami od migowego. „Badacze nieznający języka marzyli o szybkim rozwiązaniu: zamienimy gesty na tekst i po problemie”, ironizuje Woll. Efektem była jedynie frustracja użytkowników.

Dzisiaj stoimy przed podobnym ryzykiem: komercyjne startupy pędzą po zysk, nie zawsze słuchając głosu społeczności. Dr Maartje De Meulder, głucha badaczka, wskazuje na cyfrowe wykluczenie – od edukacyjnych wideo po rządowe witryny. Dobrze skrojone AI mogłoby to zmienić, ale bez przewodnictwa osób głuchych czeka nas kolejna klapa. Neil Fox z University of Birmingham dodaje wprost, że awatary muszą stać się w pełni wiarygodne, zanim zaufamy im w ważnych sprawach.

Lauren Ward z RNID widzi w tym miecz obosieczny: z jednej strony ekscytacja postępem, z drugiej realne zagrożenie, jeśli stery przejmie chęć zysku zamiast etyki. Choć prawo od dekad obiecuje dostęp do BSL, praktyka kuleje – AI może tę lukę wypełnić, ale tylko pod ścisłym nadzorem merytorycznym.

Co dalej dla AI i migowych?

Najbliższe pięć lat może przynieść prawdziwy przełom: od inteligentnych menu w kawiarniach po osobiste tłumacze w smartfonach. Większe fundusze, współpraca międzynarodowa i zaangażowanie osób głuchych nadają temu procesowi tempa. Jednak eksperci, tacy jak Ward, przypominają: firmy technologiczne muszą postawić społeczność ponad słupki w Excelu.

De Meulder podkreśla ogromny potencjał transformacyjny: nikt nie jest w stanie przetłumaczyć całego internetu ręcznie, ale rozwiązania takie jak SignGPT mogą dać dostęp do kluczowych informacji. Ironia losu sprawiła, że technologia, która kiedyś spychała głuchych na margines, teraz próbuje ich dogonić – o ile nie powtórzy starych błędów. Dialogue Cafe udowadnia, że ludzki kontakt jest niezastąpiony, ale AI może nadać mu niespotykaną dotąd skalę.

Podobnie jak aplikacje próbujące rozszyfrować miauczenie kotów, sztuczna inteligencja w służbie migowego testuje granice naszych możliwości. Patrzymy na to z optymizmem, ale bez zbędnego hurraoptymizmu.

Źródła: The Guardian (https://www.theguardian.com/society/2026/feb/01/deaf-run-cafe-london-where-hearing-people-order-via-sign), University of Surrey (SignGPT), SilenceSpeaks.io, UCL DCAL, DialogueHub.co.uk

Najczęściej zadawane pytania