Buat file robots.txt untuk mengatur crawler mesin pencari
Robots.txt adalah file yang digunakan untuk memberi instruksi kepada crawler mesin pencari tentang halaman mana yang boleh atau tidak boleh diakses. File ini sangat penting dalam optimasi SEO teknis.
Robots.txt adalah file teks yang ditempatkan di root domain website dan digunakan untuk mengontrol akses crawler seperti Googlebot.
Tidak wajib, tapi sangat disarankan.
Ya, jika dikonfigurasi dengan benar.