تشخیص محتوای تکراری وب سایت چگونه است ؟
تشخیص محتوای تکراری وب سایت چگونه است ؟
محققان به این نتیجه رسیده اند که بیش از 25 تا 30 درصد وب محتوا تکراری وب است. و باقی مطالب را میتوان بدون تکرار یا حداقل باکمی تغییرات پیدا کرد اما این درصد از سایت ها هستند که مطالب خود را از سایت های دیگر بر می دارند و بدون تغییر و گاها باتغییرات جزئی درون سایت خود قرار می دهند اما آیا ایجاد محتوای تکراری و قرار داد ن آنها درون سایت جریمه دارد ؟ گوگل چگونه تشخیص می دهد که چه میزان از مطالب ما دارای تکرار هستند ؟ بیایید ببینیم نظر گوگل در رابطه با محتوای تکراری چیست
نظرات Google درباره محتوای تکراری وب چیست؟
تعداد زیادی از پست هایی که می بینیم و از معیار بالایی برخوردارند در Googlers منتشر شده است.
گوگل می داند کاربران می خواهند در نتایج جستجو تنوع ایجاد کنند نه اینکه همان مقاله را بارها و بارها بنویسند ، بنابراین کاری که گوگل می کند این است که در صورت تکراری بودن مطالب تصمیم می گیرند که فقط یک نسخه را ادغام و نشان دهند.
میتوان گفت کاری که گوگل کرده این است که الگوریتم هایی را برای جلوگیری از تأثیرگذاری مطالب تکراری در وب مسترها طراحی کرده است. کاری که این الگوریتم ها می کنند این است که نسخه های مختلف را به یک خوشه گروه بندی می کنند ،و بعد از آن “بهترین” URL در خوشه نمایش داده می شود ، و آنها در واقع سیگنال های مختلف (مانند پیوندها) را از صفحات داخل خوشه ای که گروه بندی شده تا نمونه نشان داده می شوند.
محتوای تکراری وب باعث جریمه شدن سایت شما نمی شود
در محتوای تکراری مبنایی برای اقدام وجود ندارد تا بتوان با آن با ایجاد محتوای تکراری وب جریمه ای لحاظ کرد ، مگر اینکه هدف آن دستکاری نتایج جستجو باشد.
بدترین اتفاقی که از این فیلتر می افتد این است که نسخه ای مطلوب از صفحه در نتایج جستجو نشان داده می شود.
در این زمان گوگل سعی می کند منبع اصلی محتوا را مشخص کند و آن را نمایش دهد.
اگر شخصی محتوای شما را بدون اجازه کپی کرده است ، می توانید با ارسال درخواست تحت قانون کپی رایت هزاره دیجیتال ، درخواست حذف آن را داشته باشید.
شما هرگز نباید دسترسی به محتوای تکراری را مسدود کنید . اگر خزنده گوگل آنها نتوانند تمام نسخه ها را بخزند و یررسی کنند ، نمی توانند سیگنال ها را ادغام کنند.
مواردی که باید انجام دهید
- ماهرانه برخورد با مطالب تکراری
- کپی کردن مطالب به دلیل وجود اسکرابر
- ،محتوای تکراری Google ناشی از پارامترهای URL را کپی کنید
- اجلاس محتوا را در SMX Advanced کپی کنید
- تأثیر URL های تکراری را بیاموزید
- محتوای تکراری (راهنمای کنسول جستجو)
- علل محتوای تکراری
- HTTP و HTTPS
- www و غیر www
- پارامترها و ناوبری آسان
- شناسه جلسه
- برش های دنباله دار
- صفحات فهرست
- نسخه های صفحه جایگزین مانند m. یا صفحات AMP یا چاپ کنید
- محیط های توسعه دهنده / میزبان
- صفحه
- ضایعات
- نسخه های کشور / زبان
- راه حل هایی برای کپی کردن مطالب
راه حل به چه چیزی بستگی دارد ؟
شما برای اینکه مشکل محتوای تکراری را حل کنید نیازی نیست کاری انجام دهید در واقع می توان گفت یا اینطور بگوییم که گوگل خودش تمام کارها را انجام می دهد شاید شما این مطلب را از قبل بدانید که Google صفحات را جمع می کند و سیگنال ها را ادغام می کند ، و مسائلی که مربوط به محتوای تکراری است را شخصا بررسی می کند
برچسب های متعارف چگونه برچسب هایی هستند ؟
این برچسب ها برای اعمالی نظیر ادغام سیگنال ها و انتخاب نسخه مورد نظر شما استفاده می شوند. وقتی در یک وب سایت برچسب های آن به طور صحیح تنظیم شده است ، یک مورد خاص است. بعضی ها مشاهده کرده اند که مسائل مربوط به محتوای تکراری وجود دارد و گوگل به نحوی کار آمد با آنها مبارزه می کند پس سعی در کپی مطالب در سایت خود نداشته باشید که گوگل این مطالب تکراری را نمایش نخواهد داد گوگل با جلوگیری از نمایش بعضی از نسخه های جایگزین ، باعث می شود از تکرار محتوا در اینترنت جلوگیری شود تا هنگامی که یک فرد در حال بررسی یک موضوع است تمام سایتهای موجود در نتایج جستجوی او یک چیز را عنوان نکنند و جلوگیری کنند.
پارامترهای Google چه کاری انجام می دهد
Rel = “متناوب”. برای ادغام نسخه های جایگزین یک صفحه مورد استفاده قرار می گیرد ، مانند کشور های مختلف یا صفحه های تلفن همراه . به طور خاص با کشور / زبان ، از hreflang برای نشان دادن صفحه صحیح زبان کشور در نتایج جستجو استفاده می شود. چندی پیش فردی به نام ، جان مولر در پاسخ به گوگل در رابطه با سوالی در Hangm Webmaster ، گفت که اصلاح hreflang باعث افزایش رتبه نمی شود بلکه فقط کمک می کند که نسخه به درستی نمایش داده شود . و این حرف به احتمال زیاد به دلیل این است که Google قبلاً نسخه های جایگزین را شناسایی کرده و سیگنال های صفحات مختلف را تلفیق کرده است. بهتر ایت بدانید که Rel = “prev” و rel = “next”. برای صفحه بندی استفاده می شود.
مواردی که مشکلات ایجاد می کنند
مواردی ، مانند scraping / spam وجود دارد که می تواند مشکلاتی ایجاد کند اما در بیشتر موارد ، مشکلات توسط خود وب سایت ها ایجاد می شود. از استفاده robots.txt خودداری کنید ، یا اگر در حال استفاده از آن هستید از ادامه کار با آن خودداری کنید ، از noindex استفاده نکنید ، از صفحاتی که دم طولانی تر دارند استفاده نکنید اما از سیگنال های ذکر شده در بالا برای موارد خاص خود استفاده کنید تا نشان دهد چگونه شما می خواهم با محتوا رفتار شود. بخش راهنمایی Google را در مورد محتوای تکراری بررسی کنید
اسطوره ها درباره مجازات های محتوای تکراری حرفی برای گفتن ندارند . ممیزی ها ، ابزارها و سوء تفاهم ها به اطلاعات صحیح نیاز دارند ، این داستان ممکن است 10 سال دیگر باشد. روش های زیادی برای ادغام سیگنال ها در چندین صفحه وجود دارد ، و حتی اگر از آنها استفاده نکنید ، Google سعی خواهد کرد سیگنال ها را برای شما ادغام کند.
سپاس از همراهی شما
هنوز دیدگاهی ثبت نشده!