بازدیدهای جعلی در اینترنت

طبق گزارش مجله نیویورک، بخش عمده ای از بازدیدهای اینترنتی جعلی هستند. شاید باورتان نشود ولی چیزی حدود ۴۰ درصد بازدیدهای اینترنتی جعلی هستند!
بله،  «ارتش ربات ها» این کار را با ما می کنند

0 231

بازدیدهای جعلی در اینترنت
5 (100%) 3 votes

شرکت White Ops که یک شرکت امنیت سایبری است، وظیفه دارد از اینترنت و وب سایت‌ها در برابر تبلیغات جعلی و اعتبارنامه‌های جعلی محافظت کند. این شرکت اخیراً از دو سرویس دهنده تبلیغات به نامهای Methbot و 3ve شکایت کرده است. به ادعای کارشناسان  White Ops، این دو شرکت، تبلیغ کنندگان را فریب می‌دهند و آنها را مجاب می‌کند تا تبلیغات آن‌ها در سایتهای معتبر و آمار بازدید آنها را ببینند.
طبق ادعای White Ops، این دو شرکت با استفاده از ربات‌ها، بازدیدهای جعلی برای مشتریان خود فراهم می‌کردند؛ اما این دو شرکت تبلیغاتی مدعی شدند که تمام بازدیدها و تبلیغات واقعی هستند. بعد از بررسی های انجام شده مشخص شد که ادعای White Ops درست است. متاسفانه دو شرکت تبلیغاتی یاد شده برای تبلیغات موجود در سایت‌های معتبر از بازدیدهای جعلی استفاده می کردند. در پی این اتفاق، مجله‌ی نیویورک به دنبال یافتن جواب سؤالات زیر بود.

 

واقعا چه میزان از فعالیتهای اینترنتی دروغ و ساختگی است؟

آیا کاربران جعلی از کاربران واقعی قابل تمایز هستند؟

از سال 2013 در وبسایت یوتیوب سرویس‌های رباتی تحت عنوان بات‌ها(bot) فراگیر شدند که از آن‌ها برای فریب کاربران در افزایش تعداد مشاهده‌های ویدئوها استفاده شد. این فراگیری‌ها تا جایی ادامه پیدا کرد که اکثر برنامه نویسان نگران بودند که الگوریتم این بات‌ها بتواند در رفتارهای انسانی و ترافیک‌های اینترنتی انسانی تداخل ایجاد کند.
طبق تحقیقاتی که اخیراً انجام شده است، کمتر از 60 درصد فعالیت‌های اینترنتی به صورت مستقیم توسط انسان‌ها انجام می‌گیرد. طبیعتاً این یک موضوع نگران کننده برای کاربران اینترنت است و با افزایش بات‌ها در بستر اینترنت، این سوال مطرح می شود که واقعا چه چیزی در اینترنت واقعی است؟

در تحقیقات منتشر شده هم چنین به سرویس‌های جذب کلیک اشاره شده است. با استفاده از این سرویس‌ها در ازای دریافت مبلغی مشخص، تعداد مشاهده یا بازدید (به اصطلاح کلیک کردن) پست‌ها تضمین می‌شود. اما واقعیت ماجرا این است که این بازدیدها و مشاهدات بیشتر توسط ربات های طراحی شده انجام می‌شوند و کاربران واقعی در این کار نقشی ندارند!
بعد از این اتفاق، بسیاری از سایت‌ها بر آن شدند تا اقدامات لازم در راستای شناسایی اکانت‌های جعلی و اسپم(spam) را انجام دهند.

در ادامه به شناخت ربات ها و برخی راه های مقابله با آنها می پردازیم.

 

انواع ربات‌ها

برای توضیح ساده ربات‌ها، آن‌ها را می‌توان به عنوان نرم افزار نوشته شده برای انجام وظایف تکراری خاص تعریف کرد. وظایف آن ها می تواند هر چیزی باشد برای مثال از چک کردن دقیقه‌ای قیمت در وب سایت‌ها تا ارسال یک دیدگاه جدید در هر ساعت. هدف کلی ربات این است که یک کار تکراری را به صورت خودکار انجام دهد. نوع کاری که ربات می‌تواند انجام دهد بسته به خوب و یا بد بودن آن دارد. همانطور که احتمالا متوجه شدید، تمام ربات‌های آنلاین بد نیستند و بعضی از آن‌ها در حقیقت برای راحتی امور در اینترنت ضروری هستند.

به صورت خلاصه ، ربات‌های اینترنتی را می توان به دو گروه، ربات‌ها خوب و ربات‌های بد تقسیم کرد.

ربات‌های خوب کارهایی کارهایی از جمله ایندکس (index) کردن وب سایت در موتورهای جستجو، مانیتور کردن سلامت وب سایت و ایجاد فیدهای RSS  را انجام می‌دهند.
از سوی دیگر، ربات‌های بد، کارهایی همچون از بین بردن لینک‌ها و محتوا، افزایش بازدیدهای جعلی، ایجاد پیام های اسپم و یا تلاش برای از بین بردن سایت شما را انجام می دهند.

 

چگونه ترافیک جعلی و رباتیک را شناسایی کنیم؟

واقعیت این است که تقریباً همیشه ترافیک رباتیک برای هر سایتی وجود دارد. این ربات‌ها اغلب به طیف وسیعی از عوامل در وب سایت شما از جمله ایندکس شدن صفحات وب تا محو شدن مطالب شما کمک می‌کنند.
اما سوال اینجاست که با توجه به وجود ربات‌های بسیار زیاد، چگونه می توانید ترافیک رباتیک را در وب سایت خود شناسایی کنید؟  آیا باید نگران آن‌ها باشید؟

در واقع با استفاده از روش‌های مختلف می‌توان ترافیک رباتیک و چگونگی بازدید از وب سایت را بررسی کرد. بعضی از روش‌ها آسان هستند و به شما یک گزارش سریع از ورود ربات‌ها به وب سایت را می‌دهد، در حالی که در روش‌های دیگر تجزیه و تحلیل داده‌ها زمان بر می‌باشد.

اولین روش برای چک کردن ورودی‌ها و ترافیک رباتیک وب سایت، بررسی آمار گوگل آنالیتیکس برای یافتن هر گونه تناقض است. با توجه به تعداد بازدیدهای صفحه، میانگین مدت حضور کاربر در هر صفحه می‌باشد اگر ربات‌ها از وب سایت شما بازدید کرده باشند تعداد صفحه‌های بازدید شده افزایش و به دلیل سرعت بالای ربات‌ها میانگین مدت زمان حضور در هر صفحه کاهش چشمگیری می‌یابد.

بنابراین شما افزایش شدید تعداد دفعات مشاهده صفحه را به راحتی متوجه خواهید شد. اگر یک ربات وارد وب سایت شما شده باشد، در همان لحظه صفحات بی شماری را بارگذاری می‌کند. اگر میانگین تعداد صفحه‌های بازدید شده در هر کاربر 3 باشد پس اگر به طور ناگهان متوجه شدید  که این عدد به 50 تغییر پیدا کرده پس قطعا وب سایت شما توسط ربات‌ها بازدید شده است.

از آنجایی که سرعت ربات‌ها بالا است، معمولا چند ثانیه بیشتر طول نمی‌کشد تا سایت شما را بررسی کرده و اطلاعات مورد نیاز خود را بدست آورند. پس در مقایسه با کاربر معمولی، مدت زمان حضور ربات در صفحه احتمالا خیلی پایین‌تر از مدت زمان حضور کاربر در وب سایت است. هنگامی که ربات تمام صفحات را بارگذاری کرد، به حالت عادی بر می گردد و به سایت بعدی حرکت می‌کند. این تاثیر بزرگی بر نرخ میزان بازدید(bounce rate) وب سایت شما خواهد داشت.

راه دیگری برای شناسایی ترافیک جعلی در وب سایت شما این است که از سرعت سایت خود آگاهی داشته باشید. اگر شما در معرض هجوم ربات‌ها هستید، احتمالا توجه می‌شوید سرعت بارگذاری سایت شما پایین آمده است.

یک ربات به تنهایی قدرت زیادی ندارد اما وقتی مجموعه ای از ربات‌ها در کنار هم فعالیت کنند ممکن است عملکرد سرور شما مختل شود. در حقیقت این احتمال وجود دارد که ربات‌های مخرب تلاش کنند سرور را دچار مشکل کرده و آن را آفلاین یا از خط خارج کنند! که به عنوان حمله DDOS شناخته می‌شود. برای مثال اگر شما یک کسب و کار آنلاین راه اندازی کرده باشید، این حملات می‌توانند تاثیرات ویران کننده‌ای بر کسب و کار شما داشته باشند. به ویژه هنگامی که وب سایت، منبع اصلی کسب و کار و دریافت سفارشات است.

اگر گوگل آنالیتیکس خود را بررسی کرده و متوجه شدید که  زمان بارگذاری صفحات کاهش شدید داشته است، پس حتما مورد حمله.ی ربات‌ها قرار گرفته اید. خوشبختانه برای ممنوع کردن ورود آن ها به وب سایت چندین راه وجود دارد.

 

چگونه از ورود بات‌ها به وب سایت جلوگیری کنیم ؟

 

برای مسدود کردن ترافیک رباتیک یا بازدید ربات‌ها از وب سایت، گزینه‌های مختلفی وجود دارد. در ادامه به دو روش آن اشاره خواهیم کرد.

 

1- ایجاد یک فایل robots.txt

اولین گزینه این است که یک فایل robots.txt ایجاد کنید و ربات‌هایی را که نمی‌خواهید وارد وب سایت شوند را مشخص کنید. اگر چه این روش تنها بر  ربات‌های خوب تاثیر گذار است. بعضی از ربات‌ها به طور کامل این فایل را نادیده می‌گیرند و بدون توجه به آن، از وب سایت شما بازدید می‌کنند. برای مسدود کردن ربات‌های بد، شما باید از روش دیگری برای محافظت از وب سایت خود استفاده کنید.

یک فایل robots.txt اساساً به ربات‌ها می‌گوید چه چیزی را می‌توانند و یا نمی‌توانند بازدید کنند. اگر فایل  robots.txt وجود نداشته باشد، هر رباتی قادر خواهد بود از وب سایت شما و تمام محتوای آن بازدید کند. اما اگر فایل robots.txt داشته باشید، بسیاری از ربات‌ها ابتدا  آن را بررسی می‌کنند تا ببینید اجازه انجام چه کاری را دارند.

 

2- مسدود کردن ربات ها با ضد DDOS

با استفاده از خدمات حفاظت DDOS، از ترافیک جعلی و دسترسی ربات‌های مخرب به وب سایت‌ها راحت می‌شوید. این سرویس اساساً از وب سایت شما مانند یک فایروال محافظت می‌کند و هر درخواست ورودی را بررسی می‌کند. در صورت تشخیص آدرس IP و فعالیت کاربر به صورت ربات، درخواست متوقف خواهد شد. اگر درخواست از یک کاربر واقعی باشد که فعالیت مخرب قبلی ندارد، پس دسترسی آنها مجاز خواهند بود.

یکی از محبوب‌ترین سرویس‌های حفاظت DDOS رایگان استفاده از سایت CloudFlare.com است.  بسته رایگان آن‌ها از سایت شما در مقابل بسیاری از ربات‌ها مزاحم محافظت می‌کند. علاوه بر این، اگر شما با فایل robots.txt که قبلا ذکر شد ترکیب کنید، بیش از 90 درصد از ربات‌های بد را مسدود می‌کنید.

نتیجه این کار مسدود کردن ربات‌های مخرب و ترافیک رباتیک، افزایش سرعت بارگذاری صفحات سایت، کاهش هزینه های پهنای باند، کاهش بازدیدهای جعلی و بهبود وضعیت کلی سایت خواهد شد.

بازدیدهای جعلی در اینترنت
5 (100%) 3 votes

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.