Penggunaan internet dalam keseharian dapat terlihat semakin meningkat dari tahun ke tahun. Aktifitas yang dilakukan pun beragam, dan salah satunya memberikan komentar terhadap suatu postingan. Komentar ini memiliki peranan yang cukup unik, dimana akan merepresentasikan pikiran seseorang dari postingan yang di baca-nya. Konten setiap komentar pun beragam, tetapi akan ada masalah ketika komentar tersebut bersifat kasar. Berkomentar dengan bahasa kasar ini dapat memberikan kesan buruk baik terhadap pembaca komentar ataupun bagi si pembuat postingan. Karena hal tersebut, banyak penelitian yang membuat deteksi bahasa kasar dengan berbagai macam metode, dengan metode machine learning hingga deep learning. Tetapi dalam komentar bahasa Indonesia, masih sedikit atau sulit untuk menemukan deteksi bahasa kasar menggunkan metode deep learning. Sehingga dalam penelitian ini, dikembangkan deteksi bahasa kasar dengan metode deep learning yaitu dengan Bidirectional Encoder Representational from Transformers (BERT). Model yang digunakan berupa model BERT dan model pre-train BERT Multilingual untuk menjadi baseline. Sistem akan mendapat masukan berupa teks komentar yang selanjutnya akan mengeluarkan label untuk mengklasifikasikan teks komentar tersebut, apakah termasuk Offensive, Normal, atau Non Offensive. Hasil dari Scratch model yang dilatih dengan dataset bahasa Indonesia mendapat Macro Average F1 Score sebesar 50% dibandingkan dengan BERT Multilingual sebesar 54%.