nshp.org – Optimisasi mesin pencari (SEO) adalah proses meningkatkan kualitas dan kuantitas lalu lintas situs web ke situs web atau halaman web dari mesin pencari. SEO menargetkan lalu lintas yang tidak dibayar (dikenal sebagai hasil “alami” atau “organik”) daripada lalu lintas langsung atau lalu lintas berbayar. Lalu lintas tidak berbayar dapat berasal dari berbagai jenis penelusuran, termasuk penelusuran gambar, penelusuran video, penelusuran akademik, penelusuran berita, dan mesin telusur vertikal khusus industri.
Sebagai strategi pemasaran Internet, SEO mempertimbangkan cara kerja mesin telusur, algoritme yang diprogram komputer yang menentukan perilaku mesin telusur, apa yang dicari orang, istilah penelusuran atau kata kunci aktual yang diketikkan ke mesin telusur, dan mesin telusur mana yang disukai oleh audiens yang ditargetkan. . SEO dilakukan karena sebuah situs web akan menerima lebih banyak pengunjung dari mesin pencari ketika peringkat situs web lebih tinggi di halaman hasil mesin pencari (SERP). Pengunjung ini kemudian berpotensi diubah menjadi pelanggan.
Sejarah
Webmaster dan penyedia konten mulai mengoptimalkan situs web untuk mesin pencari pada pertengahan 1990-an, karena mesin pencari pertama membuat katalog Web awal. Awalnya, semua webmaster hanya perlu mengirimkan alamat halaman, atau URL, ke berbagai mesin, yang akan mengirim perayap web untuk merayapi halaman itu, mengekstrak tautan ke halaman lain darinya, dan mengembalikan informasi yang ditemukan di halaman tersebut. diindeks.[4] Prosesnya melibatkan spider mesin pencari yang mengunduh halaman dan menyimpannya di server mesin pencari itu sendiri. Program kedua, yang dikenal sebagai pengindeks, mengekstrak informasi tentang halaman, seperti kata-kata yang dikandungnya, di mana lokasinya, dan bobot apa pun. untuk kata-kata tertentu, serta semua tautan yang ada di halaman tersebut. Semua informasi ini kemudian ditempatkan ke dalam penjadwal untuk dirayapi di kemudian hari.
Pemilik situs web mengakui nilai peringkat tinggi dan visibilitas dalam hasil mesin pencari, menciptakan peluang bagi praktisi SEO topi putih dan topi hitam. Menurut analis industri Danny Sullivan, frase “optimasi mesin pencari” mungkin mulai digunakan pada tahun 1997. Sullivan memuji Bruce Clay sebagai salah satu orang pertama yang mempopulerkan istilah tersebut.
Versi awal dari algoritma pencarian mengandalkan informasi yang disediakan webmaster seperti tag meta kata kunci atau file indeks di mesin seperti ALIWEB. Meta tag memberikan panduan untuk konten setiap halaman. Namun, menggunakan metadata untuk mengindeks halaman ternyata kurang dapat diandalkan, karena pilihan kata kunci webmaster dalam tag meta berpotensi menjadi representasi yang tidak akurat dari konten situs yang sebenarnya. Data cacat dalam tag meta, seperti atribut yang tidak akurat, lengkap, atau salah, berpotensi menyebabkan halaman disalahartikan dalam pencarian yang tidak relevan. Penyedia konten web juga memanipulasi beberapa atribut dalam sumber HTML halaman dalam upaya untuk mendapatkan peringkat yang baik di mesin pencari. Pada tahun 1997, perancang mesin telusur menyadari bahwa webmaster berusaha untuk mendapatkan peringkat yang baik di mesin telusur mereka dan bahwa beberapa webmaster bahkan memanipulasi peringkat mereka dalam hasil penelusuran dengan mengisi laman dengan kata kunci yang berlebihan atau tidak relevan. Mesin pencari awal, seperti Altavista dan Infoseek, menyesuaikan algoritme mereka untuk mencegah webmaster memanipulasi peringkat.
Dengan sangat mengandalkan faktor-faktor seperti kepadatan kata kunci, yang secara eksklusif berada dalam kendali webmaster, mesin pencari awal mengalami penyalahgunaan dan manipulasi peringkat. Untuk memberikan hasil yang lebih baik kepada penggunanya, mesin pencari harus beradaptasi untuk memastikan halaman hasil mereka menunjukkan hasil pencarian yang paling relevan, daripada halaman yang tidak terkait yang diisi dengan banyak kata kunci oleh webmaster yang tidak bermoral. Ini berarti beralih dari ketergantungan berat pada kepadatan istilah ke proses yang lebih holistik untuk mencetak sinyal semantik. Karena keberhasilan dan popularitas mesin pencari ditentukan oleh kemampuannya untuk menghasilkan hasil yang paling relevan untuk pencarian tertentu, kualitas yang buruk atau hasil pencarian yang tidak relevan dapat mengarahkan pengguna untuk menemukan sumber pencarian lain. Mesin pencari merespons dengan mengembangkan algoritme peringkat yang lebih kompleks, dengan mempertimbangkan faktor tambahan yang lebih sulit dimanipulasi oleh webmaster.
Perusahaan yang menggunakan teknik yang terlalu agresif dapat membuat situs web klien mereka dilarang dari hasil pencarian. Pada tahun 2005, Wall Street Journal melaporkan sebuah perusahaan, Traffic Power, yang diduga menggunakan teknik berisiko tinggi dan gagal mengungkapkan risiko tersebut kepada kliennya. Majalah Wired melaporkan bahwa perusahaan yang sama menggugat blogger dan SEO Aaron Wall karena menulis tentang larangan tersebut. Matt Cutts dari Google kemudian mengkonfirmasi bahwa Google memang melarang Traffic Power dan beberapa kliennya.
Beberapa mesin pencari juga telah menjangkau industri SEO dan sering menjadi sponsor dan tamu di konferensi SEO, obrolan web, dan seminar. Mesin pencari utama memberikan informasi dan panduan untuk membantu pengoptimalan situs web. Google memiliki program Peta Situs untuk membantu webmaster mempelajari jika Google mengalami masalah dalam mengindeks situs web mereka dan juga menyediakan data lalu lintas Google ke situs web. Alat Webmaster Bing menyediakan cara bagi webmaster untuk mengirimkan peta situs dan umpan web, memungkinkan pengguna untuk menentukan “tingkat perayapan”, dan melacak status indeks halaman web.
Pada tahun 2015, dilaporkan bahwa Google mengembangkan dan mempromosikan pencarian seluler sebagai fitur utama dalam produk masa depan. Sebagai tanggapan, banyak merek mulai mengambil pendekatan berbeda untuk strategi pemasaran Internet mereka.
Hubungan dengan Google
Pada tahun 1998, dua mahasiswa pascasarjana di Universitas Stanford, Larry Page dan Sergey Brin, mengembangkan “Backrub,” sebuah mesin pencari yang mengandalkan algoritma matematika untuk menilai keunggulan halaman web. Jumlah yang dihitung oleh algoritma, PageRank, adalah fungsi dari kuantitas dan kekuatan tautan masuk. PageRank memperkirakan kemungkinan bahwa halaman tertentu akan dijangkau oleh pengguna web yang menjelajahi web secara acak, dan mengikuti tautan dari satu halaman ke halaman lainnya. Akibatnya, ini berarti bahwa beberapa tautan lebih kuat daripada yang lain, karena halaman PageRank yang lebih tinggi lebih mungkin dijangkau oleh peselancar web acak.
Page dan Brin mendirikan Google pada tahun 1998. Google menarik pengikut setia di antara semakin banyak pengguna Internet, yang menyukai desainnya yang sederhana. Faktor di luar halaman (seperti PageRank dan analisis hyperlink) dipertimbangkan serta faktor di halaman (seperti frekuensi kata kunci, tag meta, judul, tautan, dan struktur situs) untuk memungkinkan Google menghindari jenis manipulasi yang terlihat di mesin pencari yang hanya mempertimbangkan faktor di halaman untuk peringkat mereka. Meskipun PageRank lebih sulit untuk dimainkan, webmaster telah mengembangkan alat dan skema pembuatan tautan untuk memengaruhi mesin telusur Inktomi, dan metode ini terbukti juga dapat diterapkan pada PageRank permainan. Banyak situs berfokus pada pertukaran, pembelian, dan penjualan tautan, seringkali dalam skala besar. Beberapa skema ini, atau peternakan tautan, melibatkan pembuatan ribuan situs dengan tujuan semata-mata untuk mengirim spam tautan.
Pada tahun 2004, mesin pencari telah memasukkan berbagai faktor yang tidak diungkapkan dalam algoritme peringkat mereka untuk mengurangi dampak manipulasi tautan. Pada Juni 2007, Saul Hansell dari The New York Times menyatakan bahwa Google memberi peringkat situs menggunakan lebih dari 200 sinyal berbeda. Mesin pencari terkemuka, Google, Bing, dan Yahoo, tidak mengungkapkan algoritma yang mereka gunakan untuk menentukan peringkat halaman. Beberapa praktisi SEO telah mempelajari pendekatan yang berbeda untuk optimasi mesin pencari dan telah berbagi pendapat pribadi mereka. Paten yang terkait dengan mesin pencari dapat memberikan informasi untuk lebih memahami mesin pencari. Pada tahun 2005, Google mulai mempersonalisasi hasil pencarian untuk setiap pengguna. Bergantung pada riwayat pencarian mereka sebelumnya, Google membuat hasil untuk pengguna yang masuk.
Pada tahun 2007, Google mengumumkan kampanye melawan tautan berbayar yang mentransfer PageRank. Pada tanggal 15 Juni 2009, Google mengungkapkan bahwa mereka telah mengambil langkah-langkah untuk mengurangi efek dari PageRank sculpting dengan menggunakan atribut nofollow pada link. Matt Cutts, seorang insinyur perangkat lunak terkenal di Google, mengumumkan bahwa Google Bot tidak akan lagi memperlakukan tautan nofollow dengan cara yang sama untuk mencegah penyedia layanan SEO menggunakan nofollow untuk pembuatan PageRank. Sebagai hasil dari perubahan ini, penggunaan nofollow menyebabkan hilangnya PageRank. Untuk menghindari hal di atas, insinyur SEO mengembangkan teknik alternatif yang menggantikan tag nofollow dengan JavaScript yang dikaburkan dan dengan demikian memungkinkan pembuatan PageRank. Selain itu, beberapa solusi telah disarankan yang mencakup penggunaan iframe, Flash, dan JavaScript.
Pada bulan Desember 2009, Google mengumumkan akan menggunakan riwayat pencarian web dari semua penggunanya untuk mengisi hasil pencarian. Pada tanggal 8 Juni 2010 sistem pengindeksan web baru yang disebut Google Caffeine diumumkan. Dirancang untuk memungkinkan pengguna menemukan hasil berita, posting forum, dan konten lainnya lebih cepat setelah dipublikasikan daripada sebelumnya, Google Caffeine adalah perubahan cara Google memperbarui indeksnya untuk membuat segala sesuatunya muncul lebih cepat di Google daripada sebelumnya. Menurut Carrie Grimes, insinyur perangkat lunak yang mengumumkan Kafein untuk Google, “Kafein memberikan hasil 50 persen lebih segar untuk pencarian web daripada indeks terakhir kami. Google Instan, pencarian waktu-nyata, diperkenalkan pada akhir 2010 dalam upaya untuk membuat hasil pencarian. lebih tepat waktu dan relevan. Secara historis, administrator situs telah menghabiskan waktu berbulan-bulan atau bahkan bertahun-tahun untuk mengoptimalkan situs web untuk meningkatkan peringkat pencarian. Dengan pertumbuhan popularitas situs media sosial dan blog, mesin terkemuka membuat perubahan pada algoritme mereka untuk memungkinkan konten segar mendapat peringkat dengan cepat dalam hasil pencarian.
Pada Februari 2011, Google mengumumkan pembaruan Panda, yang menghukum situs web yang berisi konten yang diduplikasi dari situs web dan sumber lain. Secara historis situs web telah menyalin konten satu sama lain dan mendapat manfaat dalam peringkat mesin pencari dengan terlibat dalam praktik ini. Namun, Google menerapkan sistem baru yang menghukum situs yang kontennya tidak unik. Penguin Google 2012 berusaha menghukum situs web yang menggunakan manipulasi dan juga menyediakan data lalu lintas Google ke situs web. Alat Webmaster Bing menyediakan cara bagi webmaster untuk mengirimkan peta situs dan umpan web, memungkinkan pengguna untuk menentukan “tingkat perayapan”, dan melacak status indeks halaman web.
Pada tahun 2015, dilaporkan bahwa Google mengembangkan dan mempromosikan pencarian seluler sebagai fitur utama dalam produk masa depan. Sebagai tanggapan, banyak merek mulai mengambil pendekatan berbeda untuk strategi pemasaran Internet mereka.
Hubungan dengan Google
Pada tahun 1998, dua mahasiswa pascasarjana di Universitas Stanford, Larry Page dan Sergey Brin, mengembangkan “Backrub,” sebuah mesin pencari yang mengandalkan algoritma matematika untuk menilai keunggulan halaman web. Jumlah yang dihitung oleh algoritma, PageRank, adalah fungsi dari kuantitas dan kekuatan tautan masuk. PageRank memperkirakan kemungkinan bahwa halaman tertentu akan dijangkau oleh pengguna web yang menjelajahi web secara acak, dan mengikuti tautan dari satu halaman ke halaman lainnya. Akibatnya, ini berarti bahwa beberapa tautan lebih kuat daripada yang lain, karena halaman PageRank yang lebih tinggi lebih mungkin dijangkau oleh peselancar web acak.
Page dan Brin mendirikan Google pada tahun 1998. Google menarik pengikut setia di antara semakin banyak pengguna Internet, yang menyukai desainnya yang sederhana. Faktor di luar halaman (seperti PageRank dan analisis hyperlink) dipertimbangkan serta faktor di halaman (seperti frekuensi kata kunci, tag meta, judul, tautan, dan struktur situs) untuk memungkinkan Google menghindari jenis manipulasi yang terlihat di mesin pencari yang hanya mempertimbangkan faktor di halaman untuk peringkat mereka. Meskipun PageRank lebih sulit untuk dimainkan, webmaster telah mengembangkan alat dan skema pembuatan tautan untuk memengaruhi mesin telusur Inktomi, dan metode ini terbukti juga dapat diterapkan pada PageRank permainan. Banyak situs berfokus pada pertukaran, pembelian, dan penjualan tautan, seringkali dalam skala besar. Beberapa skema ini, atau peternakan tautan, melibatkan pembuatan ribuan situs dengan tujuan semata-mata untuk mengirim spam tautan.
Pada tahun 2004, mesin pencari telah memasukkan berbagai faktor yang tidak diungkapkan dalam algoritme peringkat mereka untuk mengurangi dampak manipulasi tautan. Pada Juni 2007, Saul Hansell dari The New York Times menyatakan bahwa Google memberi peringkat situs menggunakan lebih dari 200 sinyal berbeda. Mesin pencari terkemuka, Google, Bing, dan Yahoo, tidak mengungkapkan algoritma yang mereka gunakan untuk menentukan peringkat halaman. Beberapa praktisi SEO telah mempelajari pendekatan yang berbeda untuk optimasi mesin pencari dan telah berbagi pendapat pribadi mereka. Paten yang terkait dengan mesin pencari dapat memberikan informasi untuk lebih memahami mesin pencari. Pada tahun 2005, Google mulai mempersonalisasi hasil pencarian untuk setiap pengguna. Bergantung pada riwayat pencarian mereka sebelumnya, Google membuat hasil untuk pengguna yang masuk.
Pada tahun 2007, Google mengumumkan kampanye melawan tautan berbayar yang mentransfer PageRank. Pada tanggal 15 Juni 2009, Google mengungkapkan bahwa mereka telah mengambil langkah-langkah untuk mengurangi efek dari PageRank sculpting dengan menggunakan atribut nofollow pada link. Matt Cutts, seorang insinyur perangkat lunak terkenal di Google, mengumumkan bahwa Google Bot tidak akan lagi memperlakukan tautan nofollow dengan cara yang sama untuk mencegah penyedia layanan SEO menggunakan nofollow untuk pembuatan PageRank. Sebagai hasil dari perubahan ini, penggunaan nofollow menyebabkan hilangnya PageRank. Untuk menghindari hal di atas, insinyur SEO mengembangkan teknik alternatif yang menggantikan tag nofollow dengan JavaScript yang dikaburkan dan dengan demikian memungkinkan pembuatan PageRank. Selain itu, beberapa solusi telah disarankan yang mencakup penggunaan iframe, Flash, dan JavaScript.
Pada bulan Desember 2009, Google mengumumkan akan menggunakan riwayat pencarian web dari semua penggunanya untuk mengisi hasil pencarian. Pada tanggal 8 Juni 2010 sistem pengindeksan web baru yang disebut Google Caffeine diumumkan. Dirancang untuk memungkinkan pengguna menemukan hasil berita, posting forum, dan konten lainnya lebih cepat setelah dipublikasikan daripada sebelumnya, Google Caffeine adalah perubahan cara Google SEO memperbarui indeksnya untuk membuat segala sesuatunya muncul lebih cepat di Google daripada sebelumnya. Menurut Carrie Grimes, insinyur perangkat lunak yang mengumumkan Kafein untuk Google, “Kafein memberikan hasil 50 persen lebih segar untuk pencarian web daripada indeks terakhir kami. Google Instan, pencarian waktu-nyata, diperkenalkan pada akhir 2010 dalam upaya untuk membuat hasil pencarian. lebih tepat waktu dan relevan. Secara historis, administrator situs telah menghabiskan waktu berbulan-bulan atau bahkan bertahun-tahun untuk mengoptimalkan situs web untuk meningkatkan peringkat pencarian. Dengan pertumbuhan popularitas situs media sosial dan blog, mesin terkemuka membuat perubahan pada algoritme mereka untuk memungkinkan konten segar mendapat peringkat dengan cepat dalam hasil pencarian.
Pada Februari 2011, Google mengumumkan pembaruan Panda, yang menghukum situs web yang berisi konten yang diduplikasi dari situs web dan sumber lain. Secara historis situs web telah menyalin konten satu sama lain dan mendapat manfaat dalam peringkat mesin pencari dengan terlibat dalam praktik ini. Namun, Google menerapkan sistem baru yang menghukum situs yang kontennya tidak unik. Penguin Google 2012 berusaha menghukum situs web yang menggunakan manipulasi