Analisis sentimen merupakan tugas utama dalam pemrosesan bahasa alami (NLP) den gan berbagai aplikasi di berbagai domain. Penelitian ini mengkaji dampak penempatan self-attention dan global attention dalam model CNN-BiLSTM dan CNN-LSTM, serta mengevaluasi efektivitasnya ketika ditempatkan sebelum, sesudah, atau di kedua posisi sebelum dan sesudah BiLSTM/LSTM, terutama pada teks dengan panjang yang berbeda. Alih-alih menerapkan mekanisme attention pada posisi tetap, penelitian ini mengeksplorasi jenis dan penempatan attention yang paling sesuai untuk meningkatkan pemahaman model dan kemampuannya dalam menyesuaikan diri dengan dataset yang memiliki panjang teks yang bervariasi. Eksperimen dilakukan menggunakan dataset IMDB Movie Reviews (teks panjang) dan Twitter US Airline Sentiment (teks pendek). Hasil menunjukkan bahwa pada teks panjang, CNN-BiLSTM dengan self-attention sebelum dan sesudah BiLSTM menca pai F1-Score sebesar 93.77% (+2.72%), sedangkan pada teks pendek, konfigurasi yang sama mencapai 82.70% (+2.24%). Penerapan augmentasi data lebih lanjut meningkatkan kinerja pada dataset Twitter menjadi 86.67% (+7.08%), menekankan pentingnya kombi nasi mekanisme attention dengan augmentasi data dalam menangani ketidakseimbangan data. Temuan ini menunjukkan bahwa penempatan attention yang optimal dapat se cara signifikan meningkatkan akurasi klasifikasi sentimen. Studi ini memberikan wawasan dalam perancangan model deep learning hibrida yang lebih efektif serta berkontribusi pada penelitian di masa depan terkait analisis sentimen multibahasa dan multidomain, di mana mekanisme attention dapat disesuaikan dengan berbagai struktur teks.