시각장애인 분들은 여전히 길에서 보행 시에 많은 위험에 노출됩니다. 시각의 혜택을 받지 못하기 때문에 진행 방향을 잡는 것부터가 어렵습니다. 이를 위해 인도 곳곳에는 점자블록이 설치되어 길 안내 용도로 사용되는데, 이 또한 직접 점자블록 위를 걸을 때 의미가 있는 것이고, 점자블록 밖에 서 있는 경우는 블록이 어디 있는지 찾기 쉽지 않습니다.
이러한 이유로 저희는 시각장애인의 눈을 대신하여, Semantic Segmentation을 통해 인도의 지면 정보를 파악하고, 시각장애인에게 유용한 정보를 제공하는 앱을 구현하고자 하였습니다.
final-project-level3-cv-10
├─baseline # Deeplabpv3
├─android # android codes
└─porting # torch → onnx → Tensorflow → TFlite
- Segmentation
- On-Demand ML
- Realtime
- TTS
Android (only)
- Install APK on Device
- (필수 !) 개발자모드 - USB 디버깅 허용
- 개발자 모드 켜는법
- 갤럭시 기종 : 소프트 웨어 정보 - 빌드번호 7번 연속으로 터치하면 개발자 모드가 활성화 됩니다.
*ios not supported
Settings
- JDK : 1.8.0
- Android AVD : Pixel4a, API Level 30
Deeplab v3
- backbone : MobileNet V3-Large
- Optimizaton : float32 → FP16
인도(人道) 보행 영상 : https://aihub.or.kr/aidata/136
- SurfaceMasking Dataset
Dataset : CC-BY-SA
Application Icon : CC-BY
Pytorch : Facebook Copyright
Onnx : Apache License 2.0
Tensorflow : Apache License 2.0
Tensorflow Lite : Apache License 2.0
Android Studio :
- Binaries : Freeware
- Source code : Apache License 2.0