Definisi SEO
Search Engine Optimization (SEO) adalah proses meningkatkan volume atau kualitas lalu lintas ke situs web dari mesin pencari melalui "alam Maya" ( "organik" atau "algorithmic") dari hasil pencarian. Biasanya merupakan sebuah situs yang sebelumnya muncul dalam daftar hasil pencarian, dan semakin banyak pengunjung yang masuk posisinya akan semakin naik peringkatnya di halaman pencari. SEO dapat menargetkan berbagai jenis pencarian, termasuk pencarian gambar, pencarian lokal, dan industri-mesin pencari spesifik vertikal.
Sebagai strategi pemasaran Internet, SEO mempertimbangkan bagaimana mesin pencari bekerja dan apa yang dicari orang. Cara mengoptimalkan website terutama adalah dengan mengedit isinya dan kode HTML dimana keduanya berguna dalam meningkatkan relevansinya kata kunci spesifik dan menghapus hambatan untuk mengindeks kegiatan mesin pencari.
Akronim "SEO" dapat juga merujuk kepada "search engine", sebuah istilah yang diadopsi oleh industri konsultan yang melaksanakan proyek optimalisasi atas nama klien, dan oleh pegawai yang melakukan layanan SEO in-house. Search engine mungkin menawarkan SEO sebagai layanan yang berdiri sendiri atau sebagai bagian dari kampanye pemasaran yang lebih luas. Karena SEO yang efektif mungkin memerlukan perubahan ke kode sumber HTML situs, taktik SEO dimasukkan ke dalam pengembangan situs web dan desain. Istilah "ramah terhadap mesin pencari" digunakan untuk menjelaskan situs web desain, menu, sistem manajemen konten dan keranjang belanja yang mudah untuk dioptimalkan.
Sejarah SEOWebmaster dan penyedia konten mulai mengoptimalkan situs untuk mesin pencari di pertengahan tahun 1990-an, seperti yang pertama adalah mesin pencari cataloging the early Web. Awalnya, semua yang diperlukan webmaster adalah melakukan submit webpage, atau URL, ke berbagai mesin yang akan mengirim spider atau "crawl" pada halaman web, mengekstrak link ke halaman lain dari itu, dan menemukan kembali informasi pada halaman yang akan diindeks . [1] Proses melibatkan mesin pencari spider men-download dan menyimpan halaman pada server mesin pencari sendiri, dimana kedua program ini, dikenal sebagai indexer, ekstrak berbagai informasi pada webpage tersebut, seperti yang mengandung link dan di mana berada, begitu juga dengan kata spesifik, serta setiap dan semua link halaman, yang kemudian ditempatkan dalam scheduler untuk dijelajahi di kemudian hari.
Pemilik situs mulai mengenali dan memiliki nilai peringkat tinggi peringkat situs mereka dan terlihat dalam hasil mesin pencari, memungkinkan untuk membuat baik black hat maupun white hat bagi praktisi SEO. Menurut analis industri Danny Sullivan, kalimat optimisasi mesin pencari mulai dipakai pada tahun 1997.
Pada awalnya algoritma pencarian yang diandalkan para webmaster menggunakan kunci meta tag, atau file index dalam mesin misalnya ALIWEB. Meta tag memberikan panduan pada setiap halaman. Tetapi dengan meta data untuk indeks halaman kadang menjadi kurang dapat karena webmaster sering menggunakan kata kunci lain dalam meta tag yang dapat berpotensi tidak akurat pada isi situs sebenarnya. Tidak akurat, lengkap, dan konsisten data dalam meta tag dan ia dapat menyebabkan peringkat ke halaman untuk pencarian yang tidak relevan. Pembuat web juga memanipulasi sejumlah atribut dalam sumber HTML dalam usaha untuk manaikan peringkat di mesin pencari
Dengan bergantung pada banyak faktor seperti kepadatan kata kunci yang dalam kendali webmaster, awalnya mesin pencari mangalami penyalahgunaan dan manipulasi. Untuk memberikan hasil yang lebih baik kepada pengguna, mesin pencari harus menyesuaikan diri untuk memastikan mereka menunjukkan hasil halaman yang paling relevan dengan hasil pencarian, dibandingkan dengan hasil yang tidak terkait dengan berbagai kata kunci amoral oleh webmaster. Keberhasilan dan popularitas mesin pencari ditentukan oleh kemampuan untuk memproduksi hasil yang paling relevan suatu pencarian, yang memungkinkan hasil yang palsu gilirannya akan menemukan pengguna untuk mencari sumber-sumber lainnya. Mesin pencari berkembang lebih kompleks untuk menentukan ranking, dengan mempertimbangkan faktor-faktor tambahan yang lebih sulit untuk dimanipulasi oleh webmaster.
Lulusan mahasiswa di Universitas Stanford, Larry Page dan Sergey Brin mengembangkan "BackRub," mesin pencari yang berdasarkan pada algoritma matematika untuk menilai yang paling menonjol suatu halaman web. Pagerank dihitung dengan algoritma, berdasarkan fungsi dari kuantitas dan kekuatan inbound link. PageRank memperkirakan kemungkinan halaman tersebut akan dicapai oleh pengguna web yang secara acak surfing, dan link yang mengikuti dari halaman lain. Pengaruhnya berarti suatu link akan lebih kuat dari yang lain, PageRank halaman yang lebih tinggi lebih mungkin dicapai oleh random surfer.
Page dan Brin, mendirikan Google tahun 1998. Google menarik pengguna setia bersama dengan tumbuhnya jumlah pengguna Internet, yang menyukai desain yang sederhana. Faktor luar (seperti PageRank dan analisis hyperlink) dianggap serta pada faktor-halaman (seperti kata kunci frekuensi, meta tag, judul, link dan struktur situs) memungkinkan Google untuk menghindari jenis manipulasi penglihatan mesin pencari yang dianggap hanya pada halaman-faktor untuk peringkat mereka. Meskipun PageRank adalah lebih sulit untuk dipermainkan, webmaster telah mengembangkan link metode pembangun link untuk mempengaruhi INKTOMI mesin pencari, dan metode ini membuktikan telah memainkan game PageRank. Banyak situs yang berfokus pada bertukar link, membeli, dan menjual link, terjadi pada skala besar. Beberapa skema ini, atau peternakan link, terlibat penciptaan ribuan situs untuk tujuan tunggal link spamming. Dalam beberapa tahun terakhir mesin pencari mulai lebih banyak bergantung pada factor luar web seperti umur, jenis kelamin , lokasi, dan sejarah pencarian orang melakukan pencarian dalam rangka untuk lebih memperbaiki hasil.
Pada tahun 2007, mesin pencari semakin mengembangkan factor dalam menentukan pagerank untuk menurunkan pengaruh manipulasi link. Google bilang rangking situs menggunakan lebih dari 200 pengaruh sinyal yang berbeda. Mesin pencari besar seperti Google, yahoo dan live search, tidak membuka algoritma tentang bagaimana mereka menentukan pagerank. Penulis SEO seperti RandFiskin, Barry Schwartz, Aaron Wall dan Jil Whalen, telah mempelajari cara yang berbeda untuk mengoptimisasi search engine. Praktisi SEO juga mempelajari paten yang dipegang oleh berbagai search engineer untuk mendapatkan algoritmanya.
Hubungan Antar Search Engine
Sejak 1997 search engineer mengatakan bahwa para webmaster sedang berusaha menggali dalam search engine, dan bahkan beberapa webmaster memanipulasi rangkingnya dalam hasil search dengan membuat page dengan keyword yang berlebihan. Pada awalnya mesin pencari seperti Infoseek mengubah algoritmanya untuk menghindari para webmaster dalam memanipulasi rangking.
Karena perdagangan yang tinggi pada target search engine, ada potensi hubungan promosi antara mesin pencari dengan SEO. Pada acara konfresi tahunan 2005 diweb, AIRWEB, Adversarial Information Retrieval melakukan diskusi dan meminimalkan pengaruh kerusakan agregasi is web.
Memperoleh IndexMesin pencari utama seperti Google, Yahoo dan MSN menggunakan crawler untuk mendapatkan halaman web pada algoritma mesin pencari mereka. Halaman web yang me-link dari mesin pencari yang mengindex tidak mengharuskan untuk men-submit url mereka, karena mereka akan menemukannya secara otomatis. Beberapa mesin pencari seperti Yahoo membuat paid submission service yang menjamin agar akan index baik free maupun costperclick. Program demikian biasanya menjamin keberadaannya dalam database tetapi tidak menjamin rangkingnya dalam hasil pencarian.
Mencegah dari Pengindekan
Untuk menghindar isi yang tidak diinginkan diindex oleh mesin pencari, webmaster dapat memberi instruksi untuk tidak mengindex isinya atau direktori dengan teks standard. Page dapat secara jelas mengeluarkan dari mesin pengindek dengan menggunakan metatag. Pada bulan Maret 2007, Google memperingatkan para webmaster agar mereka memasang pencegah pengindekan dari internat search karena halaman tersebut dapat dispam.
White Hat VS Black Hat
Teknik SEO dikategorikan dalam dua macam, teknik yang merekomendasikan pada mesin pencari pada design yang baik, dan teknik yang tersebut tidak diperbolehkan oleh mesin pencari. Mesin pencari berusaha meminimalkan pengaruhnya di kemudian hari, diantaranya adalah spamindex. Beberapa perusahaan komentar telah mengklasifikasikan cara ini dan para praktisi telah melakukannya, yaitu White hat SEO dan Black hat SEO. White hat membuat hasil untuk jangka waktu panjang, sedangkan black hat pada akhirnya akan dibanned yang secara temporer atau permanent sehingga tidak akan ditemukan lagi pada mesin pencari.
Teknik SEO yang menggunakan white hat adalah yang sesuai dengan search engine guideline dan tidak ada penipuan. Sebagaimana guideline mesin pencari biasanya tidak menulis serangkaian aturan atau perintah, hal ini perlu untuk dicatat. White SEO bukan hanya menuruti guideline, tetapi memastikan bahwa apa yang dicari oleh pengguna internet sesuai dengan isinya. White hat menyarankan untuk membuat secara terus menerus isi dari web, bukan untuk search engine, dan kemudian membuat isinya mudah diaccess mesin index bukan merupakan trik algoritma mesin. White hat SEO dalam banyak cara adalah mirip pada web development yang menjanjikan bahwa kemudahan promosi, walaupun keduanya tidak identik.
Black hat SEO cenderung meningkatkan rangking dengan cara yang tidak dibenarkan atau penipuan. Misal dengan membuat teks yang tersembunyi atau warna teksnya sama dengan background dalam div yang tak terlihat, atau dalam posisi off screen. Cara yang lain adalah membuat halaman lain tergantung dari halaman yang diinginkan oleh pengunjung atau mesin pencari, teknik ini disebut dengan cloaking.
Search engine dapat melarang situs tersebut yang menggunakan black hat method, atau dengan menurunkan rankingnya atau membatasi atau menghilankan keberadaanya dari database. Pelarangan tersebut dapat dilakukan oleh algoritma mesin pencari atau secara manual oleh site review. Contohnya pada bulan Februari 2006 Google menghapus BMW German dan Ricoh German yang menggunakan cara terlarang, dan pada bulan April 2006 menghapus Agen PPC BigMouthMedia. Ketiga perusahaan tersebut akhirnya meminta maaf pada Google dan memperbaiki halaman webnya, dan menyimpan kembali dalam daftar Google, namanya saja Big Mouth cuman gede omong doang.
Artikel Menarik Lainnya:
Hati Hati Mengkopi Artikel
Search Engine Optimization (SEO) adalah proses meningkatkan volume atau kualitas lalu lintas ke situs web dari mesin pencari melalui "alam Maya" ( "organik" atau "algorithmic") dari hasil pencarian. Biasanya merupakan sebuah situs yang sebelumnya muncul dalam daftar hasil pencarian, dan semakin banyak pengunjung yang masuk posisinya akan semakin naik peringkatnya di halaman pencari. SEO dapat menargetkan berbagai jenis pencarian, termasuk pencarian gambar, pencarian lokal, dan industri-mesin pencari spesifik vertikal.
Sebagai strategi pemasaran Internet, SEO mempertimbangkan bagaimana mesin pencari bekerja dan apa yang dicari orang. Cara mengoptimalkan website terutama adalah dengan mengedit isinya dan kode HTML dimana keduanya berguna dalam meningkatkan relevansinya kata kunci spesifik dan menghapus hambatan untuk mengindeks kegiatan mesin pencari.
Akronim "SEO" dapat juga merujuk kepada "search engine", sebuah istilah yang diadopsi oleh industri konsultan yang melaksanakan proyek optimalisasi atas nama klien, dan oleh pegawai yang melakukan layanan SEO in-house. Search engine mungkin menawarkan SEO sebagai layanan yang berdiri sendiri atau sebagai bagian dari kampanye pemasaran yang lebih luas. Karena SEO yang efektif mungkin memerlukan perubahan ke kode sumber HTML situs, taktik SEO dimasukkan ke dalam pengembangan situs web dan desain. Istilah "ramah terhadap mesin pencari" digunakan untuk menjelaskan situs web desain, menu, sistem manajemen konten dan keranjang belanja yang mudah untuk dioptimalkan.
Sejarah SEOWebmaster dan penyedia konten mulai mengoptimalkan situs untuk mesin pencari di pertengahan tahun 1990-an, seperti yang pertama adalah mesin pencari cataloging the early Web. Awalnya, semua yang diperlukan webmaster adalah melakukan submit webpage, atau URL, ke berbagai mesin yang akan mengirim spider atau "crawl" pada halaman web, mengekstrak link ke halaman lain dari itu, dan menemukan kembali informasi pada halaman yang akan diindeks . [1] Proses melibatkan mesin pencari spider men-download dan menyimpan halaman pada server mesin pencari sendiri, dimana kedua program ini, dikenal sebagai indexer, ekstrak berbagai informasi pada webpage tersebut, seperti yang mengandung link dan di mana berada, begitu juga dengan kata spesifik, serta setiap dan semua link halaman, yang kemudian ditempatkan dalam scheduler untuk dijelajahi di kemudian hari.
Pemilik situs mulai mengenali dan memiliki nilai peringkat tinggi peringkat situs mereka dan terlihat dalam hasil mesin pencari, memungkinkan untuk membuat baik black hat maupun white hat bagi praktisi SEO. Menurut analis industri Danny Sullivan, kalimat optimisasi mesin pencari mulai dipakai pada tahun 1997.
Pada awalnya algoritma pencarian yang diandalkan para webmaster menggunakan kunci meta tag, atau file index dalam mesin misalnya ALIWEB. Meta tag memberikan panduan pada setiap halaman. Tetapi dengan meta data untuk indeks halaman kadang menjadi kurang dapat karena webmaster sering menggunakan kata kunci lain dalam meta tag yang dapat berpotensi tidak akurat pada isi situs sebenarnya. Tidak akurat, lengkap, dan konsisten data dalam meta tag dan ia dapat menyebabkan peringkat ke halaman untuk pencarian yang tidak relevan. Pembuat web juga memanipulasi sejumlah atribut dalam sumber HTML dalam usaha untuk manaikan peringkat di mesin pencari
Dengan bergantung pada banyak faktor seperti kepadatan kata kunci yang dalam kendali webmaster, awalnya mesin pencari mangalami penyalahgunaan dan manipulasi. Untuk memberikan hasil yang lebih baik kepada pengguna, mesin pencari harus menyesuaikan diri untuk memastikan mereka menunjukkan hasil halaman yang paling relevan dengan hasil pencarian, dibandingkan dengan hasil yang tidak terkait dengan berbagai kata kunci amoral oleh webmaster. Keberhasilan dan popularitas mesin pencari ditentukan oleh kemampuan untuk memproduksi hasil yang paling relevan suatu pencarian, yang memungkinkan hasil yang palsu gilirannya akan menemukan pengguna untuk mencari sumber-sumber lainnya. Mesin pencari berkembang lebih kompleks untuk menentukan ranking, dengan mempertimbangkan faktor-faktor tambahan yang lebih sulit untuk dimanipulasi oleh webmaster.
Lulusan mahasiswa di Universitas Stanford, Larry Page dan Sergey Brin mengembangkan "BackRub," mesin pencari yang berdasarkan pada algoritma matematika untuk menilai yang paling menonjol suatu halaman web. Pagerank dihitung dengan algoritma, berdasarkan fungsi dari kuantitas dan kekuatan inbound link. PageRank memperkirakan kemungkinan halaman tersebut akan dicapai oleh pengguna web yang secara acak surfing, dan link yang mengikuti dari halaman lain. Pengaruhnya berarti suatu link akan lebih kuat dari yang lain, PageRank halaman yang lebih tinggi lebih mungkin dicapai oleh random surfer.
Page dan Brin, mendirikan Google tahun 1998. Google menarik pengguna setia bersama dengan tumbuhnya jumlah pengguna Internet, yang menyukai desain yang sederhana. Faktor luar (seperti PageRank dan analisis hyperlink) dianggap serta pada faktor-halaman (seperti kata kunci frekuensi, meta tag, judul, link dan struktur situs) memungkinkan Google untuk menghindari jenis manipulasi penglihatan mesin pencari yang dianggap hanya pada halaman-faktor untuk peringkat mereka. Meskipun PageRank adalah lebih sulit untuk dipermainkan, webmaster telah mengembangkan link metode pembangun link untuk mempengaruhi INKTOMI mesin pencari, dan metode ini membuktikan telah memainkan game PageRank. Banyak situs yang berfokus pada bertukar link, membeli, dan menjual link, terjadi pada skala besar. Beberapa skema ini, atau peternakan link, terlibat penciptaan ribuan situs untuk tujuan tunggal link spamming. Dalam beberapa tahun terakhir mesin pencari mulai lebih banyak bergantung pada factor luar web seperti umur, jenis kelamin , lokasi, dan sejarah pencarian orang melakukan pencarian dalam rangka untuk lebih memperbaiki hasil.
Pada tahun 2007, mesin pencari semakin mengembangkan factor dalam menentukan pagerank untuk menurunkan pengaruh manipulasi link. Google bilang rangking situs menggunakan lebih dari 200 pengaruh sinyal yang berbeda. Mesin pencari besar seperti Google, yahoo dan live search, tidak membuka algoritma tentang bagaimana mereka menentukan pagerank. Penulis SEO seperti RandFiskin, Barry Schwartz, Aaron Wall dan Jil Whalen, telah mempelajari cara yang berbeda untuk mengoptimisasi search engine. Praktisi SEO juga mempelajari paten yang dipegang oleh berbagai search engineer untuk mendapatkan algoritmanya.
Hubungan Antar Search Engine
Sejak 1997 search engineer mengatakan bahwa para webmaster sedang berusaha menggali dalam search engine, dan bahkan beberapa webmaster memanipulasi rangkingnya dalam hasil search dengan membuat page dengan keyword yang berlebihan. Pada awalnya mesin pencari seperti Infoseek mengubah algoritmanya untuk menghindari para webmaster dalam memanipulasi rangking.
Karena perdagangan yang tinggi pada target search engine, ada potensi hubungan promosi antara mesin pencari dengan SEO. Pada acara konfresi tahunan 2005 diweb, AIRWEB, Adversarial Information Retrieval melakukan diskusi dan meminimalkan pengaruh kerusakan agregasi is web.
Memperoleh IndexMesin pencari utama seperti Google, Yahoo dan MSN menggunakan crawler untuk mendapatkan halaman web pada algoritma mesin pencari mereka. Halaman web yang me-link dari mesin pencari yang mengindex tidak mengharuskan untuk men-submit url mereka, karena mereka akan menemukannya secara otomatis. Beberapa mesin pencari seperti Yahoo membuat paid submission service yang menjamin agar akan index baik free maupun costperclick. Program demikian biasanya menjamin keberadaannya dalam database tetapi tidak menjamin rangkingnya dalam hasil pencarian.
Mencegah dari Pengindekan
Untuk menghindar isi yang tidak diinginkan diindex oleh mesin pencari, webmaster dapat memberi instruksi untuk tidak mengindex isinya atau direktori dengan teks standard. Page dapat secara jelas mengeluarkan dari mesin pengindek dengan menggunakan metatag. Pada bulan Maret 2007, Google memperingatkan para webmaster agar mereka memasang pencegah pengindekan dari internat search karena halaman tersebut dapat dispam.
White Hat VS Black Hat
Teknik SEO dikategorikan dalam dua macam, teknik yang merekomendasikan pada mesin pencari pada design yang baik, dan teknik yang tersebut tidak diperbolehkan oleh mesin pencari. Mesin pencari berusaha meminimalkan pengaruhnya di kemudian hari, diantaranya adalah spamindex. Beberapa perusahaan komentar telah mengklasifikasikan cara ini dan para praktisi telah melakukannya, yaitu White hat SEO dan Black hat SEO. White hat membuat hasil untuk jangka waktu panjang, sedangkan black hat pada akhirnya akan dibanned yang secara temporer atau permanent sehingga tidak akan ditemukan lagi pada mesin pencari.
Teknik SEO yang menggunakan white hat adalah yang sesuai dengan search engine guideline dan tidak ada penipuan. Sebagaimana guideline mesin pencari biasanya tidak menulis serangkaian aturan atau perintah, hal ini perlu untuk dicatat. White SEO bukan hanya menuruti guideline, tetapi memastikan bahwa apa yang dicari oleh pengguna internet sesuai dengan isinya. White hat menyarankan untuk membuat secara terus menerus isi dari web, bukan untuk search engine, dan kemudian membuat isinya mudah diaccess mesin index bukan merupakan trik algoritma mesin. White hat SEO dalam banyak cara adalah mirip pada web development yang menjanjikan bahwa kemudahan promosi, walaupun keduanya tidak identik.
Black hat SEO cenderung meningkatkan rangking dengan cara yang tidak dibenarkan atau penipuan. Misal dengan membuat teks yang tersembunyi atau warna teksnya sama dengan background dalam div yang tak terlihat, atau dalam posisi off screen. Cara yang lain adalah membuat halaman lain tergantung dari halaman yang diinginkan oleh pengunjung atau mesin pencari, teknik ini disebut dengan cloaking.
Search engine dapat melarang situs tersebut yang menggunakan black hat method, atau dengan menurunkan rankingnya atau membatasi atau menghilankan keberadaanya dari database. Pelarangan tersebut dapat dilakukan oleh algoritma mesin pencari atau secara manual oleh site review. Contohnya pada bulan Februari 2006 Google menghapus BMW German dan Ricoh German yang menggunakan cara terlarang, dan pada bulan April 2006 menghapus Agen PPC BigMouthMedia. Ketiga perusahaan tersebut akhirnya meminta maaf pada Google dan memperbaiki halaman webnya, dan menyimpan kembali dalam daftar Google, namanya saja Big Mouth cuman gede omong doang.
Artikel Menarik Lainnya:
Hati Hati Mengkopi Artikel
Komentar