Individu tunanetra menghadapi tantangan signifikan dalam mobilitas sehari-hari karena keterbatasan penglihatan, yang secara langsung memengaruhi kemandirian dan keamanan mereka. Solusi konvensional seperti tongkat, hewan pemandu, dan pendamping manusia memiliki keterbatasan fungsional dan ketersediaan. Seiring dengan kemajuan teknologi, kebutuhan akan solusi berbasis computer vision yang mampu beroperasi secara real-time dengan akurasi tinggi semakin mendesak. Penelitian ini bertujuan untuk mengembangkan sistem deteksi objek menggunakan algoritma YOLOv5 yang dapat membantu mobilitas penyandang tunanetra dengan menyediakan informasi visual dalam bentuk output suara. Sistem ini tidak hanya mengidentifikasi jenis objek (bangku, bollard, mobil, motor, orang, plang, pilar, pohon, pot, tempat sampah, tiang) tetapi juga menentukan posisi objek berdasarkan grid 9x9 dan estimasi jarak relatif (dekat, sedang, jauh) berdasarkan rasio area bounding box. Proses pengembangan menggunakan metodologi CRISP-DM, dimulai dari pengumpulan data gambar dari Roboflow dan potret manual yang dibagi menjadi training, validation, dan testing. Model YOLOv5 dilatih menggunakan 100 epoch, ukuran gambar 640×640 piksel, dan batch size 16 pada platform Google Colab dengan GPU NVIDIA Tesla T4. Hasil evaluasi menunjukkan performa model yang baik dengan akurasi deteksi di atas 85% untuk semua kelas objek, mencapai mean Average Precision (mAP) sebesar 0.934 pada IoU 0.5. Implementasi sistem dalam aplikasi desktop berekstensi .exe menggunakan PyInstaller memungkinkan aksesibilitas tanpa terminal, dengan output suara yang informatif. Penelitian ini diharapkan dapat meningkatkan kemandirian dan keamanan penyandang tunanetra dalam beraktivitas.
Kata Kunci : Deteksi Objek, Tunanetra, YOLOv5, Computer Vision, Mobilitas, Real-time, Output Suara.