الگوریتم های جدید گوگل , اخبار و تحلیل های آن را در وبسایت سئو میـــر دنبال کنید . با عضویت در کانال تلگرامی ما میتوانید بصورت لحظه ای از مقالات و مطالب آموزشی سایت بهره مند شوید . ما سعی میکنیم تحلیل کامل و دقیقی را از الگوریتم های رتبه بندی گوگل و سایر موتورهای جستجو در اختیار شما بگذاریم تا بتوانید وبسایتتان را به بهترین شکل بهینه سازی کنید.

نوشته‌ها

گوگل را چه شده است؟ دلایل تغییر الگوریتم دوباره در 3 ماه

الگوریتم جدید گوگل و دلایل این تغییر دوباره در 3 ماهه گذشته چیست ؟ گوگل به کدام سو در حرکت است . ؟ هرکسی که در ارتباط نزدیک با گوگل است این روز ها میتواند از عملکردهای متناقض و عجیب گوگل تا حدودی سر در بیارد .

تغییر الگوریتم گوگل برای دومین بار در 3 ماهه اخیر

گوگل این روز ها بطور متناوب در حال برهم ریختن چینش سایتها و زیرورو کردن رنکینک سایتهای موجود در صفحات اول خود است . در طی 3 ماه اخیر برای دومین بار اقدام به تغییراتی در الگوریتم خود کرده است . ولی براستی چرا در این بازه زمانی کم برای دومین بار؟

دلایل تغییر الگوریتم جدید گوگل

برخی تحلیل گران مشکلات موجود در الگوریتم جدید گوگل قبلی را علت این موضوع میدانند ولی من شخصا نظر دیگری دارم

از نظر من گوگل در حال بازی با سایتهایی است که جایگاه های بالایی دارند و از خدمات تبلیغات کلیکی استفاده نمیکنند . در هر بیزنسی در یکماه گذشته بیش از 50% تبلیغات کلیکی و سایتهایی که مجبور شده اند تا از این خدمات استفاده کنند اضافه شده است .

این بنظر من رویکردی ریاکارانه از گوگل است و با پروتکل های اینترنت و اصول کاری موتورهای جستجو در تناقض فاهش میباشد .

امید که اینگونه نباشد.

همچنین در الگوریتم گوگل فعلی سایتهای زیادی با سئو خیلی ضعیف گاها به صفحه اول گوگل میرسند ….. و عملا حاشیه امنیت را از سایتهای بالا نشین گرفته است.

18 آبانماه 95

سید سجاد عظیمی گهراز : mir amir

سیر تحول 15 ساله گوگل

تاریخچه تاسیس گوگل

گوگل از حدود 15 سال قبل راه اندازی شد . در طی این 15 سال شاید نتوان حتی یک لحظه را پیدا کرد که این شرکت گامی به جلو بر نداشته باشد . گوگل الگوی زنده ای از یک شرکت موفق و مدیران لایق و مدبر میباشد .این شرکت توسط لری پیج و سرگئی برین تأسیس شد که هر دوی آن‌ها در دانشگاه استنفورد به عنوان دانشجوی دکترا حضور داشتند و با نام مردان گوگل شناخته می‌شدند.
توسعه روزانه موتور جستجوی گوگل

روند توسعه گوگل

گوگل هم در ظاهر و هم در کلیه ساختارها و الگوریتم ها توسعه غیر قابل وصفی داشته است . موتور جستجوی گوگل میلیاردها صفحه وب در فهرست جستجوی خود دارد تا کاربران بتوانند هر موضوع دلخواهشان را با استفاده از کلمات کلیدی و عملگرها جستجو کنند. علی‌رغم محبوبیتی که این نوع جستجو دارد، توسط سازمان‌های زیادی مورد انتقاد گرفت.

الگوریتم ها موتور جستجوی گوگل در سال 2003

در سال ۲۰۰۳ نیویورک تایمز از گوگل شکایت کرد و ادعا می‌کرد که ذخیره محتویات سایت‌ها نوعی تخلف در حق تکثیر محسوب می‌شود. تصویر زیر صفحه اصلی گوگل را در 15 سال پیش نشان می دهد. . مطمئنا کمترین تغییر در ظاهر آن ایجاد شده است . و این موتور جستجو بی دلیل تبدیل به ستاره دنیای وب نشده است
گوگل 15سال پیش +عکس

گوگل در سال 2016

هم اکنون سال 2016 به نیمه راه رسیده است و گوگل با آنچه در سالهای ابتدایی فعالیت خود بود هم در ظاهر و هم در محتوا تغییرات بنیادینی داشته است . 7 سال من با گوگل گام به گام و هم نفس بوده ام و با تمام وجودم این شرکت و مدیران آن را تحسین میکنم.

 

تفاوت صفحات ایندکس شده با صفحات submit شده سایت در گوگل

indexed page   و  submited page

ایندکس نشدن صفحات و محتوای سایت

صفحات سابمیت شده سایت صفحاتی هستند که صرفا از طرف موتور جستجو شناسایی شده اند و گوگل اطلاعی از محتویات آنها ندارد و هنوز نتوانسته محتوای آن صفحات را بررسی کند .صفحات ایندکس شده سایت در گوگل صفحاتی هستند که علاوه بر شناسایی شدن توسط گوگل محتویات آنها هم بررسی شده اند و میتوانید امیدوار باشید در صورت رعایت اصول سئو و بهینه سازی سایت در آینده به جایگاه های مناسبی در نتایج جستجوی گوگل در کلیدواژه های مطبوع دست یابند

آشنایی کلی صفحات ایندکس شده و صفحات سابمیت شده سایت در گوگل وبمستر تولز

یک وبسایت بصورت روتین از چندین صفحه تشکیل میشود . اولین صفحه سایت همان نام دومین است و عموما با نام هایی مانند صفحه اصلی یا خانه و نامهای مشابه در وبسایت ها نامگذاری میشود . وقتی در پنل وبمستر تولز گوگل یا پنل وبمستر سایر موتورهای جستجو مانند بینگ و یاهو برای وبسایتتان یک اکانت ایجاد میکنید . در مراحل بعدی باید نقشه سایت را هم ایجاد کرده و در پنل مدیریت وبمسترتان ثبت کنید . بعد از ثبت نقشه سایت موتورهای جستجو شروع به آنالیز کردن نقشه سایتتان کرده و صفحات آن را در مرحله اول سابمیت میکنند . یعنی به عبارتی مطابق با نقشه سایت تعداد صفحات سایت را شمارش کرده و به ثبت میرسانند . اگر در پنل وبمستر تولز گوگل دقت کرده باشید در کنار نمایش تعداد صفحات submit  شده سایت یک گزینه دیگر هم به چشم میخورد . این گزینه نمایشگر تعداد صفحات ایندکس شده سایت میباشد . اگر شما سایتی بدون هیچ مشکلی داشته باشید و استانداردهای لینک دهی و سئو را رعایت کرده باشید . و همچنین هاست و ساختار کلی سایت شما به گونه ای کاملا بهینه باشد که ربات های گوگل یا سایر موتورهای جستجو بتوانند به راحتی در آنها خزش کرده و محتویات سایتتان را بررسی کنند میتوانید هر دو مقدار صفحات سابمیت شده و صفحات ایندکس شده را مشابه ببینید . ولی در اغلب موارد اینگونه نیست و این دو مقدار از هم متفاوت هستند . حال باید ببینیم دلایل این تفاوت چیست و چه زمانی این تفاوت خطرناک است.

دلایل تفاوت صفحات index شده با صفحات submit شده در گوگل

دلایل این تفاوت در ساده ترین حالت این است که ممکن است برخی از صفحات داخلی سایت شما ایجاد شده باشند و محتوا هم داشته باشند ولی لینک دسترسی نداشته باشند . یعنی یک کاربر برای دسترسی به صفحات سابمیت شده لینکی دم دست نداشته باشد و ارتباط بین لینک های داخلی سایت برقرار نباشد .

ممکن است برخی از صفحات سایت دارای یک اسکریپ یا متا تگ مخرب باشد که مانع از خزش رباط های گوگلی در سایت شوند.

ممکن است در متا ربوت تعریف شده برای سایت اجازه دسترسی را برای برخی صفحات از موتورهای جستجو گرفته باشید

ممکن است صفحاتی از سایت به صفحات دیگر ردایرکت شده باشند

و دلایل بسیار بیشتری هم وجود دارد ولی قبل از اینکه اقدام به رفع آن کنیم باید بدانیم آیا مشکل جدی است یا نه اگر تفاوت دو عدد ایندکس شده و سابمیت شده زیاد نباشد خیلی جای نگرانی نیست. و همچنین اگر بعد از گذشت حدود 10 روز صفحات ایندکس شده اضافه شوند و تغییر مثبت داشته باشند هم جای نگرانی نیست ولی اگر مقدار تفاوت خیلی زیاد باشد و بعد از گذشت یک هفته تا 10 روز کم نشود نشانگر مشکل جدی در ساختار سایت شماست که نیاز به بررسی دقیق دارد

اگلوریتم جدید گوگل با قابلیت تشخیص چشمی

الگوریتم جدید گوگل برای شناسایی تصاویر

انسان‌ها قادر به تشخیص آسان اجسام  هستند و متاسفانه ضعف اصلی موتورهای جستجو و بات ها درک پایین بصری میباشد . با این حال،موتور جستجوی گوگل با الگوریتم جدید که GoogLeNet نام دارد، در مکانیابی و تشخیص‌ اندازه‌های مختلف اشیا در یک تصویر بسیار دقیق عمل می‌کند و می‌تواند تمامی اجسام و مکان‌ آن‌ها در یک عکس را شناسایی کند.گوگل این نرم‌افزار را در اختیار تولیدکنندگان قرار داده تا با کمک آن‌ها دقت الگوریتم را افرایش دهد و در آینده بتواند از آن برای ارتقای جستجوهای تصویری موتور خود استفاده کند.این نرم‌افزار به تازگی در «رقابت تشخیص بصری در مقیاس بزرگ ImageNet» مقام نخست را از آن خود کرده است. این رقابت آکادمیک سالانه برای آزمایش فناوری‌های درک تصویر و تشخیص اشیا در تصاویر و همچنین مکانیابی جای آن‌ها برگزار می‌شود.رقابت مزبور دارای سه بخش گروه‌بندی، گروه‌بندی به همراه مکان‌یابی و شناسایی است. این چالش همچنین شامل تشخیص اشیای ریزی است که شناسایی و مکانیابی آن‌ها حتی برای چشم انسان نیز دشوار است.

تصاویر الگوریتم جدید گوگل برای تشخیص عکس

الگوریتم جدید گوگل

الگوریتم جدید گوگل

قابلیت های ویژه گوگل کروم – google chrome

آشنایی با قابلیت های گوگل کروم

برخی قابلیت های ویژه ای گوگل کروم باعث شده تا عنوانی فراتر از یک مرورگر معمولی داشته باشد . امکاناتی مانند تست سرعت سایت و همچنین تست نحوه باز شدن سایت در گوشیهای موبایل از کاربردهای ویزه گوگل کروم در خصوص وب و سئو میباشد . که در این خصوص مقاله مفسلتری خواهیم نوشت . گوگل کروم فراتر از یک مرورگر اینترنتی است، این نرم افزار علاوه بر اینکه توانایی مرور صفحات وب را دارد قابلیت‌هایی نظیر پخش موسیقی و ویدیو، مشاهده اسناد متنی و مرور فایل‌های موجود در رایانه را داراست که در این گزارش بیشتر با این موارد آشنا می‌شوید. به گزارش سرویس فضای مجازی باشگاه خبرنگاران؛ کروم این روزها توانسته نام خود را به عنوان یکی از برترین مرورگرهای دنیا جا بیندازد و رقبای با سابقه‌تری همچون فایرفاکس را در سهم بازار، پشت سر گذارد. اما جالب است بدانید این برنامه به جز مرور صفحات وب، از قابلیت‌های دیگری نیز برخوردار است. از گوگل کروم فراتر از یک مرورگر استفاده کنید ۱) پخش موسیقی و ویدیو از گوگل کروم فراتر از یک مرورگر استفاده کنید کروم به صورت پیش فرض از فرمت‌های صوتی و تصویری بسیاری پشتیبانی می‌کند. تنها کافی است تا فایل مورد نظر خود را بر روی یک تب جدید Drag & Drop کنید و سپس شاهد پخش آن در داخل کروم باشید. لازم به ذکر است که پخش کننده موسیقی و فیلم کروم عملکرد ساده‌ای دارد و گزینه‌های بسیاری را در اختیارتان قرار نمی‌دهد. ۲) مشاهده فایل‌های متنی و PDF از گوگل کروم فراتر از یک مرورگر استفاده کنید کروم قادر است تا فایل‌ها متنی و PDF را در داخل خود به نمایش درآورد. هر چند Notepad برای باز کردن فایل‌های متنی در ویندوز به سرعت اجرا می‌شود، اما برنامه‌ای همچون Adobe Reader به زمان نسبتا زیادی برای بالا آمدن نیاز دارد. در اینجا است که کروم به کمکتان می‌آید. تنها کافی است تا فایل مورد نظر خود را به یک تب جدید بکشید و شاهد نمایش آن باشید. کروم در فایل‌های PDF به شما اجازه می‌دهد تا داخل متن زوم کنید و یا نسبت به پرینت آن اقدام کنید. ۳) مرور فایل‌های کامپیوتر از گوگل کروم فراتر از یک مرورگر استفاده کنید کروم به شما این امکان را می‌دهد تا به فایل‌های داخل کامپیوتر خود دسترسی پیدا کنید. یک تب جدید باز کنید و نام درایو مورد نظرتان را تایپ کنید. برای مثال برای ورود به درایور C باید عبارت /:C را در آدرس بار وارد کنید (کاربران مک می‌توانند از عبارت ///:file استفاده کنند).

مهمترین ایراد سیستم خوشه بندی کبوتر

شن

در سیستم خوشه بندی کبوتر گوگل وقتی یک کاربر اقدام به جستجوی یک کلید واژه میکند گوگل باسیستم کبوتر خود ابتدا سایت ها را خوشه بندی کرده است و 90 درصد 20 گزینه اولی که گوگل به کابران پیشنهاد میدهد از خوشه یک میباشند . خوشه یک یعنی وبسایتهایی که مدت نسبتا زیادی در صفحه 1 و 2 حضور دارند . با کمی تامل میتوانید به راحتی متوجه شوید که شانس رسیدن به صفحه اول برای وبسایتهای نوظهور نه تنها برابر نیست بلکه بسیار کمتر است و وقتی متوجه شوید که بجز خوشه یک 4 خوشه دیگر هم وجود دارند و وبسایتی که تازه راه اندازی میشود در خوشه پنجم قرار میگیرد متوجه میشوید که شانس بسیار اندکی دارد یعنی کمتر از 1% شانس رقابت دارند و با فرض اینکه تمامی آیتم های بهینه سازی و سئو را رعایت کرده باشید و محتوای قوی و اصیلی هم داشته باشید در کلید واژه هایی که رقابت بالایی دارند باید حالا حالا ها پشت خط بمانید . این سیستم باعث ایجاد نوعی تبعیض بین وبسایت های قدیمی و با محتوای تکراری و ضعیف و یک وبسایت نوظهور ولی با محتوای قوی میشود . به نظر من این بزرگترین نقص در سیستم رتبه بندی وبسایت های گوگل میباشد

راهکار کم کردن اثرات سوء این تبعیض الگوریتم کبوتر

من تنها یک راه حل به ذهنم میرسد که عملیاتی باشد و آن اینکه جایگاه وبسایتتان را در کلید واژه مدنظرتان شناسایی کنید و با آی پی چنجر اقدام به سرچ و یافتن وبسایتتان در صفحه مورد نظر و افزایش کلیک خور و پیج ویو سایتتان کنید با اینکار درصد علاقه مندی کبوتر به سایتتان را میتوانید افزایش دهید و سرعت پیشرفتتان را بیشتر کنید

موفق باشید

میر امیر

94/09/17

بررسی تحلیلی نقاط تاریک الگوریتم های گوگل – سئو میر

در این مقاله قصد داریم گام به گام الگوریتم های گوگل را تحلیل کرده و شناخت کلی از اصول و قواعد رتبه بندی وبسایت ها توسط موتور جستجوی گوگل را در حد شناخت و دانش خودمان ارائه دهیم .

بررسی دو الگوریتم اخیر گوگل

الگوریتم پاندا

الگوریتم پاندا به نوعی تحول بزرگ رتبه بندی و الگوریتم های گوگل و به نوعی نقطه عطف در صنعت سئو و بهینه سازی وبسایت میباشد . از این الگوریتم بود که متا تگ کیورد یا کلمات کلیدی ارزش خودشان را از دست دادند – در این الگوریتم تایتل سایت و تگ h1  و سپس متا تگ descreption  به ترتیب بیشترین اولویت را در رتبه بندی و ارزش محتوایی یک نوشته داشتند .

الگوریتم پاندا مسئول تشخیص محتوای نامناسب و کپی شده از سایت های دیگر است و همچنین سایت هایی را که با روش های تقلب در داخل سایت،

مثل  Cloaking ( نمایش محتوایی متفاوت از آنچه در موتور جستجو نمایش داده شده ) اقدام به جذب بازدیدکننده می کنند، را تشخیص داده و آنها را از لیست جست و جو ها حذف و سایت های با کیفیت بالا را جایگزین می کند.

پاندای گوگل که در فوریه 2011 معرفی شد مدام  به دنبال مطالب تازه ای است که توسط خود صاحب وب سایت تولید شده، و رتبه آنها را افزایش می دهد.

الگوریتم پاندای گوگل تمرکز زیادی بر درستی و مورد اعتماد بودن مطالب یک وب سایت دارد و آن را از راه های زیادی مثل تعداد لینک هایی که به وب سایت شما لینک داده اند، تعداد بازدیدکننده های یک مطلب، مدت زمانی که بازدید کنندگان در سایت شما می مانند، تشخیص می دهد.

این الگوریم،  تنها تغییری جدید بر روی الگوریتم نمایش نتایج جست و جوی گوگل است نه یک ویرایش جدید!

عملکرد الگوریتم پاندای گوگل با الگوریتم کلی گوگل متفاوت است، به این شکل که به محض اضافه شدن یک لینک به یک وب سایت، روبات های خزنده گوگل به سراغ آن وب سایت رفته و آن را ایندکس می کنند اما در مورد پاندای گوگل به این شکل است که به محض آپدیت شدنش به سراغ همه سایت ها می رود و براساس معیارهای خود به آنها رتبه می دهد، که ممکن است برخی افزایش رتبه پیدا کنند و برخی کاهش رتبه.

الگوریتم مرغ مگس خوار

این الگوریتم از اردیبهشت ماه 1394 و در راستای تکمیل عملکردی الگوریتم پاندا ارائه شد – در این الگوریتم متا تگ descreption  بیشترین اهمیت را پیدا کرده است . بر خلاف چیزی که مسئولان گوگل در باره این الگوریتم بیان کردند تفاوت بنیادین و ویژه ای با الگوریتم پاندا ندارد

الگوریتم پاندا مسئول تشخیص محتوای نامناسب و کپی شده از سایت های دیگر است و همچنین سایت هایی را که با روش های تقلب در داخل سایت،

مثل  Cloaking ( نمایش محتوایی متفاوت از آنچه در موتور جستجو نمایش داده شده ) اقدام به جذب بازدیدکننده می کنند، را تشخیص داده و آنها را از لیست جست و جو ها حذف و سایت های با کیفیت بالا را جایگزین می کند.

پاندای گوگل که در فوریه 2011 معرفی شد مدام  به دنبال مطالب تازه ای است که توسط خود صاحب وب سایت تولید شده، و رتبه آنها را افزایش می دهد.

الگوریتم پاندای گوگل تمرکز زیادی بر درستی و مورد اعتماد بودن مطالب یک وب سایت دارد و آن را از راه های زیادی مثل تعداد لینک هایی که به وب سایت شما لینک داده اند، تعداد بازدیدکننده های یک مطلب، مدت زمانی که بازدید کنندگان در سایت شما می مانند، تشخیص می دهد.

این الگوریم،  تنها تغییری جدید بر روی الگوریتم نمایش نتایج جست و جوی گوگل است نه یک ویرایش جدید!

عملکرد الگوریتم پاندای گوگل با الگوریتم کلی گوگل متفاوت است، به این شکل که به محض اضافه شدن یک لینک به یک وب سایت، روبات های خزنده گوگل به سراغ آن وب سایت رفته و آن را ایندکس می کنند اما در مورد پاندای گوگل به این شکل است که به محض آپدیت شدنش به سراغ همه سایت ها می رود و براساس معیارهای خود به آنها رتبه می دهد، که ممکن است برخی افزایش رتبه پیدا کنند و برخی کاهش رتبه.

نتیجه گیری کلی از الگوریتم های گوگل

من به شخصه با 7 سالی که بصورت تمام وقت درگیر رفتارشناسی گوگل هستم از این گفته ام مطمئن هستم که گوگل و مسئولان آن در گفته هایشان صادق نیستند و در باره هر الگوریتم کمتر از 30% اطلاعات را صحیح اعلام میکنند و متاسفانه  علاوه بر عدم صحت توضیحات اعلامی حدود 30% از توضیحات مسئولان گوگل کاملا در جهت گمراه کردن سئو کاران است . از این بابت مطمئن هستم  . اگر شما میخواهید و به جدت قصد یادگیری اصول موفقیت در سئو را دارید بزرگترین اشتباهتان اجراکردن مو به موی فرمایشان مدیران الگوریتم گوگل خواهد بود

همانطور که می دانید هر چه تعداد لینک های ورودی به یک سایت بیشتر باشد آن سایت از امتیاز بیشتری برخوردار است، عده ای از این موضوع استفاده می کنند و با دریافت پول، لینک سایت های دیگر را در سایت خود وارد می کنند، الگوریتم پنگوئن این لینک ها را بررسی می کند و اگر تعداد آن بیش از اندازه زیاد وغیر مرتبط با محتوای وب سایت باشد، هم وب سایت  مرجع و هم وب سایتی که به آن لینک داده می شود را اسپم شناسایی می کند و از لیست نتایج جست و جو حذف می کند.

الگوریتم پنگوئن و اصول عملکرد آن

به طور کلی  کار الگوریتم پنگوئن گوگل رسیدگی به اوضاع سئو خارجی یک وب سایت است که مهمترین آن می توان  به بک لینک ها اشاره کرد، اما علاوه بر آن گزینه های دیگری هستند که پنگوئن گوگل را ناراحت می کند:

لینک بیلدینگ بیش از حد و بدون اعتبار

این کار جز قوانین سیاه حساب می شود و پنگوئن به راحتی لینک های غیر مرتبط را تشخیص می دهد. مثلا وقتی سایت شما در زمینه تجهیزات ساختمانی است چرا باید از یک سایت آموزش شیرینی پزی لینک دریافت کنید؟!

استفاده بیش از حد از Anchor Text های یکسان

تراکم Anchor Text نباید بالا باشد، یعنی برای معرفی و لینک کردن سایتتان همه جا از یک کلمه خاص استفاده نکنید. کلماتی که به وسیله آنها به سایت شما لینک می شود باید متفاوت باشد یا به عبارت دیگر با کلمات کلیدی مختلف به سایت شما لینک داده شود، وگرنه به نظر می آید شما بک لینک ( Back Link ) خریداری کرده اید.

 افزایش رتبه گوگل

سئو و وب برندینگ دو ستون در کنار یکدیگردند . به کمک علم سئو صاحبان سایت ها و شرکت ها می توانند خود را در لیست اولین های دنیای اینترنت قرار دهند. معمولا امروزه با گسترش اینترنت و وب ۶۰ درصد قشر جوان و میانسال بسیاری از کارهای خود را از طریق اینترنت انجام می دهند. و از این ۶۰ درصد معمولا ۵۰ درصد سر و کارشان با موتور جستجوی گوگل است.

از این رو حضور در صفحات نخست گوگل یکی از بزرگترین ابزار برای افزایش فروش و برندینگ شما در دنیای اینترنت خواهد بود. سئو و بهینه سازی وبسایت باعث می شود ساختار کلی سایت شما برای بررسی موتور های جستجوی گوگل راحت تر باشد ، و در نهایت ربات های گوگل در این بررسی ها با توجه به بهینه سازی سایت شما به این نکته پی می برند که سایت شما مستحق قرار گرفتن در لیست ۱۰ سایت برتر دنیا در صفحه نخست گوگل است.

سئو و بهینه سازی علمی

سئو و بهینه سازی سایت ها باید براساس استاندارد های وب باشد. البته موضوع اصلی طراحی سایت براساس اصول سئو و الگوریتم های گوگل است ، تیم طراحی سایت وب نوین در این راستا سعی می نمایند با اصول سئو و بهینه سازی سایت بهترین کیفیت را ارائه نمایند.

اصول بکار رفته برای بهینه سازی سایت همه الگو برداری از الگوریتم های گوگل می باشد و کارشناسان ما سعی می نمایند ، سئو و بهینه سازی در شرکت وب نوینبراساس علم روز انجام می پذیرد.

استفاده  بیش از حد از یک کلمه کلیدی

مثلا وقتی شما یک مقاله درباره بازاریابی اینترنتی می نویسید نباید بیش ازحد از کلمه ” بازاریابی اینترنتی ” استفاده کنید، در صورت نیاز به تکرار باید از کلمات مشابه استفاده کنید. مثل ” بازاریابی آنلاین ” ، ” بازاریابی الکترونیکی ” و …

 

استفاده از دایرکتوری های رایگان ثبت لینک

متاسفانه بیشتر لینک های وب سایت های دایرکتوری رایگان ارزشی ندارند و اسپم می شوند.

وقتی وب سایتی قوانین گوگل را رعایت نمی کند دچار الگوریتم پنالتی گوگل می شود.( برای شناخت الگوریتم پنالتی گوگل و رهایی از آن کلیک کنید )