شماره تماس : 09216349967

بهینه‌سازی موتور جستجو

بهینه‌سازی موتور جستجو

Search engine optimization یا بهینه‌سازی موتور جستجو، به اختصار سئو seo یک روند مناسب برای بهتر کردن دید یه وب سایت یا یک صفحه وب در یک  موتور جستجوی است. بطور کلی سایت هایی که بالاترین مکان و بیشترین تکرار در صفحه نتایج جستجو را دارند، بازدید کننده بیشتری از طریق موتورهای جستجو به دست می‌آوردند. «سئو» توانایی انواع جستجو را دارد، از جمله: جستجوی تصاویر، مکانی، جستجوی ویدئو، جستجوی علمی، جستجوی خبری و صنعت خاص در رأس موتور جستجو هستند.

به عنوان یک استراتژی بازاریابی اینترنتی، seoبه چگونگی کارکردن موتورهای جستجو و اینکه چه چیزی جستجو می‌شود، رسیدگی میکنه و همین‌طور کلمات کلیدی  و اینکه کدام  موتورجستجو توسط مخاطبان مورد توجه قرار می‌گیرد را بررسی میکنن .  بهینه‌سازی وب سایت شامل توسعه مطالب موجود در خود سایت و اچ‌تی‌ام‌ال و برنامه‌نویسی مربوط به هر دو و همچنین ارتباط بین کلمات کلیدی و حذف موانع مربوط به فعالیتهای نمایه سازی در موتور جستجو و ترویج یک سایت برای افزایش تعداد لینک دهنده و یا لینک‌های ورودی، از دیگر تاکتیک‌های جستجوگرها است. در کل seo به معنی بهینه‌سازی موتور جستجو است.

از اواسط  ۱۹۹۰ میلادی که اولین موتورهای جستجو شروع به فهرست کردن وب نخستین کردند، مدیران وب ها و تولیدکنندگان محتوا، شروع به بهینه‌سازی سایت‌ برای موتورهای جستجو نمودند. در ابتدا تمام کارهایی که مدیران وب سایت‌ها باید انجام می‌دادند، ارسال آدرس صفحه به موتورهای  مختلفی که یک «عنکبوت» جهت «خزش» آن صفحه می‌فرستادند، استخراج لینک‌های صفحه به سایر صفحات از درون صفحه، و بازگرداندن اطلاعات یافت شده در صفحه جهت ایندکس شدن بود. فرایند به این صورت است که عنکبوت موتور جستجو، یک صفحه را دانلود و آنرا در سرور موتور جستجو ذخیره می‌کند و یک برنامه دیگر موسوم به ایندکس کننده، اطلاعات مختلفی را دربارهٔ صفحه استخراج می‌کند؛ اطلاعاتی از قبیل واژه‌های موجود و محل قرارگیری آنها در صفحه، و نیز وزن خاص واژه‌های خاص و تمام لینک‌های صفحه، که بعدا جهت خزش استفاده میشه.

مدیران سایت‌ها شروع به بازشناسی ارزش رتبه بالای سایت خود و در دید قرارگرفتن آن در نتایج موتورهای جستجو نمودند که این امر، فرصتی را برای هکرهای غیر مخرب و مخرب شاغل در بخش بهینه‌سازی موتور جستجو بوجود آورد.

طبق نظر یک تحلیل گر صنعتی به نام دنی سالیوان عبارت بهینه‌سازی موتور جستجو احتمالاً در سال ۱۹۹۷ مورد استفاده قرار گرفت. در ۲ ماه می ۲۰۰۷، جیسون گمبرت تلاش کرد تا دفتر ثبت علائم تجاری آریزونا را متقاعد کند که سئو فرآیندی است شامل دستکاری واژگان کلیدی و نه یک سرویس بازاریابی و از این طریق واژه «سئو» را به عنوان علامت تجاری ثبت کند. وکیل بررسی کننده پرونده، استدلال نامنسجم مبنی بر اینکه «وقتی سئو نمی‌تواند ثبت تجاری شود آن هم به دلیل اینکه به یک فرایند عمومی دستکاری واژگان کلیدی اطلاق می‌گردد، می‌تواند یک علامت خدماتی برای تأمین خدمات بازاریابی در حوزه کامپیوتر باشد».

نسخه‌های اولیه الگوریتم‌های جستجو به اطلاعات فراهم شده توسط مدیران وب سایت‌ ها نظیر متا تگ واژه‌های کلیدی، یا فایل ایندکس موتورهای جستجو  مانند ای‌ال‌آی‌وب اعتماد و اتکا می‌کردند. متاتگ‌ها یک راهنمایی برای محتوای هر صفحه فراهم می‌کنند. با این‌حال، استفاده از داده‌های متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا انتخاب واژگان در یک متاتگ توسط وب سایتها، بالقوه می‌تواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد. داده‌های نادرست، ناقص و ناسازگار در متا تگ‌ها می‌تواند موجب رتبه‌بندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدکنندگان محتوای شبکه همچنین تعدادی از ویژگی‌های منبع اچ‌تی‌ام‌ال یک صفحه را دستکاری کردند تا رتبه صفحه را در موتورهای جستجو بهبود بدهند.

با تأکید بر عواملی مانند تراکم واژه کلیدی، که بطور انحصاری تحت کنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستکاری رتبه‌بندی رنج می‌بردند. به منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند که نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و توسط مدیران شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی متعدد پر شده‌اند. از آنجایی که موفقیت و محبوبیت یک موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته مشخص می‌شود، کیفیت پایین یا نتایج نامرتبط می‌تواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود. موتورهای جستجو با توسعه الگوریتمی رتبه‌بندی پیچیده‌تر به این عمل پاسخ دادند؛ که در آن عوامل بیشتری مورد توجه قرار می‌گیرند و دستکاری را برای مدیران شبکه، سخت‌تر می‌سازند. لری پیج و سرگئی برین دو دانشجوی فارق التحصیل دانشگاه استنفورد یک موتور جستجو موسوم به بک‌روب را توسعه دادند که جهت ارزیابی برجستگی صفحات وب، به یک الگاریتم ریاضیاتی تکیه  داشت. عددی که توسط الگوریتم محاسبه می‌شد، یعنی «رتبه صفحه»، تابعی است از مقدار و قدرت لینک‌های ورودی. رتبه صفحه میزان یک صفحه معین را که توسط یک کاربر که بصورت تصادفی شبکه را جستجو می‌کند مورد دسترسی قرار گرفته، تخمین می‌زند و لینک‌های یک صفحه به صفحه دیگر را دنبال می‌کند. در واقع، این بدان معناست که برخی لینک‌ها از سایر لینک‌ها قوی تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش می‌دهد.

پیچ و برین، گوگل را در سال ۱۹۹۸ بنیان‌گذاری کردند. گوگل درمیان کاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب کرد که طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینک) نیز همانند عوامل داخل صفحه (فراوانی واژه‌های کلیدی، متاتگ‌ها، عنوان‌ها، لینک و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند که از نوعی دستکاری که در موتورهای جستجویی دیده می‌شود که تنها به عوامل داخل صفحه توجه می‌کنند، اجتناب نماید. علی‌رغم اینکه به بازی گرفتن رتبه صفحه سخت‌تر بود، مدیران شبکه سرانجام ابزارها و طرح‌های تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی اینکتومی توسعه دادند، و این روش‌ها ثابت کردند که به طریقی مشابه می‌توان رتبه  صفحه را تحت تأثیر قرار داد. بسیاری از وب سایت‌ها روی تبادل، خرید و فروش لینک در حجم زیاد و وسیع متمرکز هستند. بعضی از این طرح‌ها یا مزارع لینک، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینک‌ها می‌شوند.

تا سال ۲۰۰۴، بهینه‌سازی موتور جستجو طیف گسترده‌ای از عوامل نامعلوم را در الگوریتم‌های رتبه‌بندی خود جای داده بودند تا اثر دستکاری لینک‌ها را کم کنند در  ۲۰۰۷، یک گزارشگر از نیویورک تایمز بنام سول هنسل گفت که گوگل، رتبه‌بندی سایت‌ها را با استفاده از بیش ۲۰۰۰ علامت مختلف انجام می‌دهد. موتورهای جستجوی پیشرو یعنی گوگل، بینگ و یاهو الگوریتم‌های رتبه‌بندی‌های خود را افشا نمی‌کنند. برخی از شاغلان در بهینه‌سازی موتور جستجو (سئو) روش‌های مختلفی را جهت بهینه‌سازی موتور جستجو مورد مطالعه قرار داده و نظرات شخصی خود را منتشر نموده‌اند.

در سال ۲۰۰۵، شروع به شخصی‌سازی نتایج جستجو برای هر کاربر نمود. بر اساس تاریخچه جستجوهای قبلی آن ها، گوگل اقدام به ایجاد نتایج برای کاربرانی کرد که وارد حساب کاربری خود شده‌اند. در سال ۲۰۰۸، بروس کلی گفت که «رتبه‌بندی مرده است» زیرا جستجوی شخصی شده سبب آن می‌گردد. او گفت که بحث در مورد نحوه رتبه‌بندی یک وب سایت کلمه بدونه مفهومیه چون رتبه وب سایت، بالقوه برای هر کاربر و هر جستجو می‌تواند متفاوت باشد.
در سال ۲۰۰۷، گوگل کمپینی به راه انداخت علیه لینک‌هایی که در ازای پرداخت پول، رتبه صفحه را منتقل می‌کنند. در ۱۵ ژوئن ۲۰۰۹۹، گوگل قرار کرد که اقداماتی در پیش گرفته تا با استفاده از ویژگی‌های نوفالو در لینک‌ها، اثر مدلسازی رتبه صفحه را کاهش دهد. مت کاتس یک مهندس نرم‌افزار شناخته  شده در گوگل، اعلام کرد که عنکبوت خزنده گوگل دیگر به طریق مشابه به لینک‌های دنبال نشده نمی‌پردازد تا تأمین کنندگان خدمات سئو را از استفاده از آن در تعیین مدلسازی رتبه صفحه منع نماید. در نتیجه این تغییر استفاده از نوفالو منجر به از دست رفتن رتبه صفحه می‌شود. به منظور اجتناب از این امر، مهندسان سئو تکنیک‌های جایگزینی را توسعه دادند که تگ‌های نوفالو شده را با جاوا اسکریپت مبهم جایگزین کرده و در نتیجه، مدلسازی رتبه صفحه را میسر می‌سازد. بعلاوه چند راه حل پیشنهاد شده است که شامل استفاده از آی‌فریم، فلش، جاوا اسکریپت می‌شود.
در دسامبر ۲۰۰۹، گوگل اعلام کرد که از سوابق جستجوی همه کاربرانش جهت جمع‌آوری نتایج جستجو استفاده می کند.

در ۸ ژوئن ۲۰۱۰ از یک سیستم ایندکس گذاری جدید موسوم به گوگل کافئین پرده برداری شد. گوگل کافئین تغییری بود در روش به روز شدن ایندکس گوگل به منظور نمایش سریعتر نتایج گوگل نسبت به قبل و  این سیستم طراحی شد تا به کاربرها اجازه یافتن سریع تر از قبل نتیجه های جدیدتر، پستهای فورم‌ها و سایر مطالب را بلافاصله پس از انتشار آنها بدهد. Carrie Grimes مهندس نرم‌افزاری که به گوگل، سیستم کافئین را معرفی کرد، معتقد است که این سیستم جستجوهای شبکه را ۵۰ درصد نسبت به ایندکس پیشین بهبود می‌دهد.

گوگل اینستنت، یا جستجوی زمان واقعی، در اواخر سال ۲۰۱۰ در تلاشی به منظور به‌هنگام‌تر و مرتبط نمودن جستجوها ارائه شد. به‌طور تاریخی، ادمین‌های وبسایت‌ها، ماه‌ها و یا حتی سالها روی بهینه‌سازی یک وب سایت و ارتقای رتبهٔ جستجوی آن زمان گذاشته‌اند. با گسترش وب سایت‌ها و وبلاگ‌های رسانه‌های اجتماعی، موتورهای جستجوی پیشرفته در الگوریتم‌های خود تغییراتی ایجاد کردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبه‌بندی شوند.

در فوریه ۲۰۱۱، از آپدیت پاندا خبر داد که وب سایت‌هایی را که حاوی محتوای تکثیر شده از وب سایت‌ها باشند، جریمه می‌کند. به طور تاریخی، وب سایت‌ها محتوا را از یکدیگر کپی کرده و از آن در رتبه‌بندی موتورهای جستجو بهره‌مند شده‌اند. با این حال، گوگل یک سیستم جدید پیاده‌سازی کرد که سایتهایی را که حاوی محتوای منحصر به فرد نیستند، جریمه می‌کند.

در آوریل ۲۰۱۲، گوگل از آپدیت گوگل پنگوئن رونمایی کرد که هدف آن، جریمه کردن وب سایت‌هایی بود که از روش‌های دستکاری جهت بهبود رتبه خود در موتورهای جستجو استفاده می‌کردند.

در سپتامبر ۲۰۱۳، کمپانی گوگل از آپدیت الگوریتم مرغ مگس خوار رونمایی کرد؛ یک الگوریتم که جهت بهبود پردازش زبان طبیعی گوگل و درک معنایی  صفحات وب طراحی شد.

 

منبع: 4ri.co