Mobile + Accessibility + AI

SightNarrator

Aplikacja mobilna AI pomagająca osobom niewidomym i niedowidzącym w codziennym życiu. Kamera telefonu rozpoznaje obiekty, czyta tekst i opisuje otoczenie w czasie rzeczywistym.

3
tryby pracy: scena, nawigacja, produkty
<2s
czas rozpoznania obiektu
100%
dostępność offline (podstawowe funkcje)
2
platformy: iOS + Android
SightNarrator mobile app

Technologia AI w służbie ludzi z niepełnosprawnościami. Bo najlepsza technologia to taka, która zmienia czyjeś życie.

Wyzwanie

Osoby niewidome i niedowidzące zmagają się codziennie z barierami, które widzący uważają za oczywiste. Przeczytanie etykiety produktu, rozpoznanie banknotów, nawigacja w nowym budynku.

Istniejące rozwiązania są fragmentaryczne. Osobna apka do OCR, osobna do rozpoznawania obiektów, żadna nie prowadzi naturalnego dialogu. Potrzebny był jeden asystent, który rozumie kontekst.

Rozwiązanie

Asystent głosowy prowadzi naturalny dialog z użytkownikiem. Nie wymaga precyzyjnych komend. Wystarczy zapytać "co jest przede mną?" i dostać pełny opis sceny.

👁️

Rozpoznawanie obiektów

Kamera w czasie rzeczywistym identyfikuje przedmioty, osoby i otoczenie. Opis głosowy natychmiast.

📖

OCR w czasie rzeczywistym

Czytanie tekstów, etykiet produktów, dokumentów. Wspiera język polski i wiele innych.

🔄

3 tryby pracy

Opis sceny, nawigacja indoor, rozpoznawanie produktów. Przełączanie jednym gestem.

🗣️

Naturalny dialog głosowy

Nie tylko komendy. Użytkownik prowadzi rozmowę z asystentem. "Co jest przede mną? A co jest po lewej?"

📴

Offline mode

Podstawowe funkcje działają bez internetu. Rozpoznawanie obiektów i OCR dostępne zawsze.

🛠 Tech Stack

Stack zoptymalizowany pod accessibility i wydajność offline. Każdy wybór ma powód.

React Native
Cross-platform z jednego codebase. iOS i Android. Natywna wydajność kamery i dostęp do sensorów.
GPT-4 Vision
Najlepszy model do rozumienia scen wizualnych. Opisuje kontekst, nie tylko obiekty. Rozumie sytuacje.
TTS (Text-to-Speech)
Naturalna synteza mowy. Wielojęzyczna. Głos, który nie męczy po godzinach słuchania.
Tesseract + Cloud Vision
Rozpoznawanie tekstu z obrazów. Tesseract offline, Cloud Vision dla trudnych przypadków. Wspiera polski.
Core ML / TensorFlow Lite
Lokalne modele do offline rozpoznawania. Szybkie, prywatne, niezależne od sieci.
WebSocket
Streaming opisu sceny w real-time. Minimalne opóźnienia między kamerą a opisem głosowym.

🌍 Impact

Technologia AI w służbie ludzi z niepełnosprawnościami

Projekt accessibility, który pokazuje, że AI to nie tylko automatyzacja biznesu. To narzędzie, które może realnie poprawić jakość życia milionów ludzi.

WCAG 2.1 AAA
🎙️Voice-first UX
📴Offline ready

Potrzebujesz podobnego rozwiązania?

Aplikacje mobilne z AI, accessibility, computer vision. Porozmawiajmy o Twoim projekcie.

Umów konsultację