تبلیغات
تبلیغات متنی
محبوبترینها
قیمت انواع دستگاه تصفیه آب خانگی در ایران
نمایش جنگ دینامیت شو در تهران [از بیوگرافی میلاد صالح پور تا خرید بلیط]
9 روش جرم گیری ماشین لباسشویی سامسونگ برای از بین بردن بوی بد
ساندویچ پانل: بهترین گزینه برای ساخت و ساز سریع
خرید بیمه، استعلام و مقایسه انواع بیمه درمان ✅?
پروازهای مشهد به دبی چه زمانی ارزان میشوند؟
تجربه غذاهای فرانسوی در قلب پاریس بهترین رستورانها و کافهها
دلایل زنگ زدن فلزات و روش های جلوگیری از آن
خرید بلیط چارتر هواپیمایی ماهان _ ماهان گشت
سیگنال در ترید چیست؟ بررسی انواع سیگنال در ترید
بهترین هدیه تولد برای متولدین زمستان: هدیههای کاربردی برای روزهای سرد
صفحه اول
آرشیو مطالب
ورود/عضویت
هواشناسی
قیمت طلا سکه و ارز
قیمت خودرو
مطالب در سایت شما
تبادل لینک
ارتباط با ما
مطالب سایت سرگرمی سبک زندگی سینما و تلویزیون فرهنگ و هنر پزشکی و سلامت اجتماع و خانواده تصویری دین و اندیشه ورزش اقتصادی سیاسی حوادث علم و فناوری سایتهای دانلود گوناگون
مطالب سایت سرگرمی سبک زندگی سینما و تلویزیون فرهنگ و هنر پزشکی و سلامت اجتماع و خانواده تصویری دین و اندیشه ورزش اقتصادی سیاسی حوادث علم و فناوری سایتهای دانلود گوناگون
آمار وبسایت
تعداد کل بازدیدها :
1833190061
روش رعایت قوانین برای جلوگیری از بسته شدن سایت -
واضح آرشیو وب فارسی:سایت ریسک: روش رعایت قوانین برای جلوگیری از بسته شدن سایت ali-k 25 اسفند 1386, 00:49دوستان این بحث در مورد بسته شدن سایت نیست یا دور زدن سیستم نیست . هدف من روش های ایجاد سایت تمیز و رعایت قوانین جمهوری اسلامی است تا بتوانیم با برنامه نویسی محتوای سایت را کنترل کنیم و درصورتیکه تخلفی توسط کاربری یا محتوای خارجی اتفاق افتاد ، پیگیری و مطلب را حذف یا هر کار دیگه ای بکنیم :) من چند موردی مینویسم لطفا شما هم اگر تجربه یا پیشنهادی دارید لطف کنید بنویسید تا ادامه بدیم به نتیجه خوبی برسیم: بطور کلی یک روش بسته شدن سایت استفاده از کلمات ممنوع هستش روشی که بستگی به کاربردش در کدام قسمت سایت سریعتر باعث میشه بسته بشه سایتتان . مثلا اگر در آدرس صفحات یا سایت باشه بلادرنگ بسته میشه (بسته که نمیشه سیستم چشم بسته به این کلمات در آدرس حساسه و اجازه عبور نمیده) مثلا در محتوای سایت که بعد از یکسری بررسی های نرم افزاری بسته میشه سایت برای آدرس که دست خودتان هست کلمه بد انتخاب نکنید تا بسته نشه در مورد محتوا (نوشته های سایت) هم که یک راه پردازش کلمات ممنوعه زمان ورود است و جایگزین کردن با کلمه دیگر یا حذف یا نمایش بصورت متقاطع یا ... این پردازش چون یکبار زمان ورود انجام میشه مشکلی ایجاد نخواهد کرد. ali-k 25 اسفند 1386, 10:52دوستان لطفا اطلاعی در این زمینه دارید به اشتراک بزارید :) یک روش دیگر برای جلوگیری از بسته شدن سایت (ف..ی..ل..ت...ر) استفاده از کاراکترست iso است. استاندارد فارسی نویسی در اینترنت utf-8 است شما میتوانید مطالب سایت را صرفا در همان محلی که مطلب فرضا خبر یا مطلب انجمن یا هر چیزی دیگری است به iso تغییر بدهید. کاراکتر های utf-8 زمانیکه به iso تبدیل بشوند به صورت &3456; در می آیند و از نظر نرم افزار بررسی کننده سایت دیگه متن فارسی نیستند و طبیعتا این نرم افزار نمیاد تبدیل encoding کنه :) و متن برای بازدید کنندگان مثل حالت utf-8 فارسی نمایش داده می شود. کاراکترهای iso در حالت utf-8 هم فارسی نمایش داده می شوند و مشکل این روش بالا رفتن حجم صفحه زمان نمایش است مخصوصا که متن طولانی باشد :) my friend 25 اسفند 1386, 11:43حالا چه ربطی داره به PHP و MySQL؟! ali-k 25 اسفند 1386, 15:49حالا چه ربطی داره به PHP و MySQL؟! ربطش به این هست که این کارها را برنامه نویس انجام میده :) و کسایی که در این زمینه کار کردن برنامه نویس هستن :) ربط دومش این هست که هر کدام از این راه ها یکسری کد داره ! من وقت نداشتم بنویسم در کنار هر مورد ... اگر دوستان راه جدیدی ارائه کنند کدش را هم مینویسم میزارم بقیه استفاده کنند ... firebird 25 اسفند 1386, 21:18جالب قضیه اش اینجاست که به کلمه ای مثل سوپ*رمارکت حساسه و فرق فروشگاه مواد غذایی با فیلم چیز رو تشخیص نمیده. فکر کنم برنامه نویس (های) روبات هوشمند حتی یک بار هم چیزی به اسم regex به گوششون نخورده. ali-k 25 اسفند 1386, 21:41جالب قضیه اش اینجاست که به کلمه ای مثل سوپ*رمارکت حساسه و فرق فروشگاه مواد غذایی با فیلم چیز رو تشخیص نمیده. فکر کنم برنامه نویس (های) روبات هوشمند حتی یک بار هم چیزی به اسم regex به گوششون نخورده. دقیقا :) این مشکل را داره و اشتباهات زیادی هم سر همین مشکلش بوجود میاد ... حدس میزنم سرعت اینجوری چک کردن یک متن کلی بیشتر از سرعت استفاده از regex باشه :) البته شما استادید من دقیقا نمی دونم :) یک راه دیگه جلوگیری از بسته شدن بارگزاری متن صفحه بوسیله آژاکس هستش :) البته نیازی نیست از کد سنگینی برای این کار استفاده کنید یک کد 2k بایتی جاوا اسکریپت میتوانه این کار را انجام بده :) اول صفحه و قالب سایت لود میشه و بعد جاوا اسکریپت متن صفحه را بوسیله یک درخواست آژآکس میاره :) این روش باعث میشه که متن صفحاتی که اینجوری لود کردید در موتورهای جستجو نیاد :) سرعت لود شدن صفحه افزایش پیدا میکنه ولی نمایش متن با یک وقفه چند ثانیه ای همراه خواهد بود :) روش دومی مثل همین راه وجود دارد که نیازی به آژاکس ندارید :) میتوانید یک کد جاوا اسکریپت را برای دیکود کردن متن استفاده کنید و متن را کد شده در صفحه قرار بدهید :) زمان بازدید کاربر متن توسط جاوا اسکریپت دیکود و نمایش داده میشود ولی برای روبات هوشمند مخابرات قابل فهم نیست چون جاوا اسکریپت را نمی توانه اجرا کنه :) my friend 25 اسفند 1386, 23:29جالب قضیه اش اینجاست که به کلمه ای مثل سوپ*رمارکت حساسه و فرق فروشگاه مواد غذایی با فیلم چیز رو تشخیص نمیده. فکر کنم برنامه نویس (های) روبات هوشمند حتی یک بار هم چیزی به اسم regex به گوششون نخورده. وقتی خودشون به "پلاستیک" اعتراف کنن... پلاستیک: بالاترین حد دانش فیلترینگ در ایران () در این اینترنت رو گل بگیرن که ... نمیدونم واقعا چی باید بگم که درخور این برنامه نویسای ابلهشون باشه... با استفاده از regex میشه کلماتی که توشون از اینجور حروف بد بد وجود داره رو تشخیص داد و با gd و ()str_replace به تصویر تبدیلشون کرد... firebird 26 اسفند 1386, 02:21دقیقا :) این مشکل را داره و اشتباهات زیادی هم سر همین مشکلش بوجود میاد ... حدس میزنم سرعت اینجوری چک کردن یک متن کلی بیشتر از سرعت استفاده از regex باشه اگه regex بهینه نوشته بشه مطمئناً سریعتر عمل میکنه. برای مثال شما میتونی n تا عبارت در یک regex بدی و به موتور بگی که بشماره چند تا از اینها توی متن هست. به فرض اینکه کندتر هم باشه راه حل بهتری هست چون معایب search ساده رو نداره. در این اینترنت رو گل بگیرن که ... مسأله اینه که کسی که حاضر میشه علمشو در چنین راه هایی به کار بگیره، حداقل کارش رو درست انجام بده وگرنه این اینترنت سه کیلوبایت در ثانیه چیه که درشو گل بگیرن؟ salar2010 26 اسفند 1386, 07:35واقعا به نکته خیلی خوبی اشاره کردی دوستان دیگه هم کمک کنن تا مطالب بهتری دستگیرمون بشه من Php بلد نیستم ولی ؟ یه نظر دارم : ببینید ما باید یه سیستم یا یه ماژول برای سیستمی مثه انجمن گفتگوی Vb یا اصلا یه سیستم مجزا طراحی کنیم که هرگاه با کلمات غیر مجاز مثه فــــلتر ش ک ن و یا .............. مواجه شد ! کلمه مورد نظر رو به عکس تبدیل کنه !!! خوب اینجوری هیچ نوع فیلترینگی هم نمیتونه کلمه رو غیر مجاز تشخصی بده !! چوون که عکس رو نمیتونن بررسی کنن !! این نظر من یه خورده شاید ناجور باشه و میدونم ولی اگه عملی بشه خیلی خوب میشه یا همون نظر خودتون با این فرق که هرموقع کاربر کلمه غیر مجاز نوشت کلمه رو یه جورایی کد کنه ! که فقط خود سیستم بتونه Decode ش کنه ! و این کار فکر نکم زیاد سخت باشه یا کلمه رو از UTF-8 به Iso تبدیل کنه حالا نظر شما چیه در این مورد ؟ zoghal 27 اسفند 1386, 02:53نظر خوبی و اما در عمل میتونه دارای مشکلاتی باشه همین تبدیل کردن من می تونه چیدمان رو عوض کنه neopersia 28 اسفند 1386, 00:01جالبه همه دنیا دنبال یه طراحی استاندارد میگردن با قابلیت ایندکس شدن تو موتورهای جستجو مخصوصاً برای صفحاتی که Ajax یا فلش داره اونوقت ما باید دنبال راهی بگردیم که صفحات ایندکس نشه! جالب که چه عرض کنم یه جورایی دردناکه راستی نمیشه این روبات به اصلاح هوشمند رو با استفاده از User Agent یا آدرس IP خودش دور زد؟ آخه از این روبات با این سطح IQ بعید نیست از این سوتی ها بده neopersia 28 اسفند 1386, 00:28راستی کسی لیستی از کلماتی رو که باعث میشه سایت فیل*تر بشه نداره من فعلاً یه سانســـور جزئی برای نظرات بازدید کنندگان سایتم گذاشتم تا جلوی خرابکاری رو بگیره ولی لیست کلماتم کامل نیست jalilvand 28 اسفند 1386, 01:51صورت مساله اینه که ما با فیلترینگ مخالفیم فرهنگسازی خیلی بهتره و بهتر جواب می ده neopersia 29 اسفند 1386, 00:21این درسته که فرهنگ سازی بهتره ولی کو گوش شنوا فعلاً باید مراقب باشیم که سایتمون به ناحق فیل*تر نشه فرهنگسازی باشه برای بعد jhoseini 29 اسفند 1386, 01:53حالا انقدر این کلمه رو تکرار کنید اینجا که مجید آنلاین رو هم ببندن :-l کلمه رو تو گوگل سرچ کنید neopersia 29 اسفند 1386, 19:25فکر نمیکنم با اینجوری نوشتنش مشکلی پیش بیاد چون Iq این روبات معروف که در حد گوگل نیست اگه این کلمه مشکل داشت باید موقع سرچ کردن هم به جای نتایج جستجو اون صفحه "مشترک گرامی..." بیاد در هر حال من پستهای خودمو ویرایش کردم تا چیزی گیر این روباته نیاد irdavidnet 01 فروردين 1387, 11:58از چند راه میشه اینکار رو کرد : 1- GD : می تونیم با تابع str_replace بیایم یه سری لیست بدیم ، که اون لیست رو من دارم ، بگیم اگه اینا رو دیدی بزارشون تو GD ، البته GD رو هم باید طوری تنظیم کنیم عکسشو که بهم نریزه 2- استفاده از متد جاوا : چون جاوا Client Side هست ، خیلی راحت مثلاً میاید تو HTML یه تگ <span id=news> </span> درست می کنید ، بعدش هم میاید تو php مثلاً میاید می گید مطالب رو از بانک اطلاعاتی بگیره بعدشم : document.write کنه روی آیدی news . 3- انکدینگ rotate13 با جاوا ، شما اینکار رو می تونید با جاوا انجام بدید ، بعدش بیاید اینو موقعی که طرف داره می خونه بازش کنید یا از انکدینگ base64 ، البته فامیلمون میگه base_64 توسط مخابرات decode میشه . 4- انکدینگ صفحه به iso : که ذکر شده قبلاً : یک روش دیگر برای جلوگیری از بسته شدن سایت (ف..ی..ل..ت...ر) استفاده از کاراکترست iso است. استاندارد فارسی نویسی در اینترنت utf-8 است شما میتوانید مطالب سایت را صرفا در همان محلی که مطلب فرضا خبر یا مطلب انجمن یا هر چیزی دیگری است به iso تغییر بدهید. کاراکتر های utf-8 زمانیکه به iso تبدیل بشوند به صورت &3456; در می آیند و از نظر نرم افزار بررسی کننده سایت دیگه متن فارسی نیستند و طبیعتا این نرم افزار نمیاد تبدیل encoding کنه و متن برای بازدید کنندگان مثل حالت utf-8 فارسی نمایش داده می شود. کاراکترهای iso در حالت utf-8 هم فارسی نمایش داده می شوند و مشکل این روش بالا رفتن حجم صفحه زمان نمایش است مخصوصا که متن طولانی باشد 5- استفاده از پروتوکل (خیلی بهتره) 6- مثلاً صفحه index بارگذاری میشه ، شما می خواید به طرف یه چیزی نشون بدید که خلاف جمهوری اسلامی هست : اول این لینک رو GD می کنید ، بعدش میاید یه پراکسی تو یه آدرس گنگ از سایتتون (فارسی باشه ، چون فارسی قاطی می کنه موتورش در دایرکتوری ها) باز می کنید : دقت کنید ، مثلاً : سلام ، اینجور کلمات باشه ، نه کلمات خلاف ... بعدش یه پراکسی توی اون آدرس درست می کنید ، بعد یه پسورد روی پراکسی با جاوا می گذارید ، بعدشم که لینک می دید در index که با proxy باز شه ، البته برای امنیت بهتر لینک رو باجاوا base64 و rotate کنید توی لینکی که onclick میشه (index) نه اینکه شما بیاید لینک مستقیم سایتی که با پراکسی باز شده رو بزارید . 7- اون صفحه مورد نظر شما که بد هست رو توی google نذارید index شه ، (از تگ متا استفاده کنید) ، همچین پراکسی رو با متا و فایل info.txt و robots.txt کاری کنید که الکسا و بقیه اون صفحه رو کش نکنن . 8- جلوگیری از ورود اونها : 1: آی پی شونو پیدا کنید و بن کنید 2: Agent : هر کدوم فلان agent رو داشتن بن کنید » من agent با آی پی شونو داشتم الان نمی دونم کجاست برای یافتن این دو تا این کار رو کنید : 1:: اونایی که وبشون فیلتره اگه برن تو cpanel و قسمت latest visitors ، می تونن ip و Agent این فیلترینگ رو ببینن 2:: یه صفحه درست کنید ، ip و agent رو سیو کنه ، بعدش آدرس رو مثلاً یه کلمه مثلاً : S---e---x بذارید ، که خود به خود فیلتر شه ، بعدش یه جاوا بذارید که اگه نرفت تو سایت ip و agent رو سیو کنه ، اصولاً باید همینطوری هم سیو شه صفحه ، اونایی که مثلاً می رید تو سایت آدرس عوض نمیشه می اندازه ، اما اونایی که می رید تو سایت فیلتر شده آدرس عوض می شه نمیشه آی پی رو فهمید . 9- آی پی سرورتون رو دم به دم عوض کنید 10- استفاده از *** ، می تونید یه پرت از سرور رو باز کنید ، مثلاً : 7070 ، بعدش بیاید به کاربرا اعلام کنید می خواید وارد سایت بشید با این پرت برید (تو ستینگ FF یا IE ، در قسمت proxy Server اونجا آی پی و پرت رو سیو کنید و برید تو سایت) ، دقت کنید سرور تو ایران نباشه 11- با جاوا ریدایرکت کنید که اتوماتیک با اون پرت بره تو سایت 12- استفاده از RSS ، خبرنامه : شما می تویند با XML توی هر جایی که خواستید RSS سایتتون با این که فیلتر باشه ، بازش کنید و به دیگران نشون بدید ، با خبرنامه هم میاید پراکسی معرفی می کنید یا ، میاید صفحه رو برای دیگران اتچ می کنید ، یا آدرس جدید سایت رو به دیگران نشون می دید 13- وقتی سایتتون فیلتر شد ، می رید تو یه جای دیگه مثلاً parsaspace ، بعدش اونجا یه php می سازید و file_get_content می کنید با پراکسی (base64) تا اونو باز کنه ، یا با سرور باز می کنید ، تو یه صفحه مثلاً hello.php نشونش می دید . برای تشکر فقط از دکمه تشکر استفاده کنید وقت صرف شده برای نوشتن مقاله : 28 دقیقه »»» به مدیران مجید آنلاین می گم یه فروم دیگه بزنن که خصوصی (privet) باشه و بعضی کاربرا دسترسی داشته باشن ، بعدش هم اینجور مقالات رو به اینجا کپی کنید . اینجا رو هم بهتره از نظر موتور ها و ... Hide کنید ... . :::::::::: راستی توی بالا مثل قسمت 6 برای لینک هایی که فیلتر شدن عمل کنید Patris Net 01 فروردين 1387, 13:11اگه به سايت يا وبلاگي كه فيل*تر شده باشه لينك بدين هم فيل*تر ميكنن ! اينو به تجربه ميگم irdavidnet 01 فروردين 1387, 13:51درسته و من اینو الان تو پست قبلیم اضافه کردم hidensoft 01 فروردين 1387, 16:31البته مواردی هم بود که بدون استفاده از روبات فیلتر شد . یعنی بصورت دستی . سایت هایی رو دیدم که فقط توش عکس بود و هیچ کلمه نامناسبی به کار نرفته بود حتی توی description و keyword ها اما فیلتر شدن. irdavidnet 01 فروردين 1387, 16:38البته به زودی این مقاله رو تکمیل تر می کنم ، فعلاً دارم در موردش و راه کارهاش تحقیق می کنم ali-k 03 فروردين 1387, 02:03تا اینجا مطالب خوبی دوستان گفتند که اکثرا روش های دور زدن سیستم بود :) پیش فرض این کارها مورد دار بودن سایت هست که ما بخوایم سایتمان را با این روش ها چند ماه بیشتر زنده نگه داریم :) اگرفرض را عوض کنیم یعنی ما اصلا نمی خواهیم سایت مورد داری داشته باشیم ولی برامون مهمه که بی دلیل في*لت**تر نشیم برای جلوگیری و تشخیص چه کارهایی را پیشنهاد می کنید ؟ یک راهی که دوستان اکثرا گفتند تشخیص کلمه های مورد دار از روی یک لیست ثابت و تبدیل به عکس هست خب این راه هوشمند نیست و کلمات مورد دار هم لیست کاملشان در دسترس نیست :) و ضعف شدید این روش اول از همه پردازش هست که برای بهینه کردن میشه یکبار انجام بگیره ! ولی نمایش ضعفی هست که بهینه نمیشه :) هربار متن نمایش داده بشه به تعداد کلمات ناجوری که داخلش هست عکس های کوچیک قراره لود بشه که واقعا کند میکنه نمایش صفحه را و همچنین پهنای باند زیبایی را اگر بازدید زیادی دارید از دست خواهید داد :) در عین حال فعلا همین راه را داریم . خب سر این روش زیاد بحثی نکنیم چون دنبال این روش نیستم :) درمان موقته :) راه حل دیگه ای برای تشخیص که مثلا اگر کاربری پستی ارسال میکنه یا کامنت میزاره یا هر ورودی دیگه ای که توسط کاربران هست را بتوانیم بررسی کنیم ؟؟ یه پروژه هوش مصنوعی قبلا انجام دادم که متن را میگیره و تشخیص میده که موضوع متن چیه :) مثلا شما یک متن را کپی میکنید داخل برنامه و برنامه میگه مثلا متن شما در مورد ورزش هست یا متن شما در مورد سیاست هست ... فکر کنم با کمی تغییر بتوانم چیزی بنویسم که وب سایت شما را بگیره و با خواندن چند صفحه از وب سایتتان بگه که ف،یل،تر می شید یا نه :cool: یا مثلا متنی که گذاشتید مصداق فی،لت،ر شدن هست یا نیست :) ali-k 03 فروردين 1387, 02:25یکی از اصولیترین راه حل های این قضیه جلوگیری از ورود روبات هوشمند مخابرات است : این روش که مینویسم صرفا برای روبات مخابرات نیست برای تمام روبات ها استفاده میشه در اخر مزایای دیگه اش را مینویسم ۱- درصورتیکه آی پی سرور ها را میدانید جلوی ورود آنها را بگیرید راحتترین راهش بستن آی پی آنها از سی پنل هست (در این مورد از آی پی اطمینان ندارم ولی چیزی که اخیرا دیدم یک روبات باهوشه که هربار از یک آی پی و با یک نوع معرفی جدید میاد و حدس میزنم خودشون باشن:) ۲- بستن دسترسی روبات با بررسی user agent که اگر دوستانیکه قبلا فی.لت.ر شدن اطلاعات در این مورد در اختیارمون بزارن میتوانیم خیلی بهتر تشخیص بدیمشون و راهشون ندیم :) توی دو راه قبلی فرض کردیم که این روبات هوشمند واقعا احمق باشه :) یا اینکه روبات هوشمند استانداردهای وب را رعایت کرده باشه و درست حسابی خودش رو معرفی کنه که ما جلوش رو بگیریم :) ولی از اونجایی که ایرانی ها نوشتن و باهوشن حتما با استاندارد روبات ها نمیان و مثل ویزیتور معمولی خودشون رو معرفی میکنند با این روش میتوانید تشخیص بدیدشان : هر کاربری که وارد سایت شد یک session بهش اختصاص بدید و بعد در بالای صفحه سایتتان یک عکس خیلی خیلی کوچک در حد یک pixel قرار بدید که توسط چشم به سختی با ذره بین قابل دیدن هست :D بعد این عکس را لینک کنید به یک صفحه مثلا پی اچ پی :) دفت کنید این لینک را در بالا صفحه بزارید تر جیحا آدرس عکس و آدرس لینک و alt , title لینک و عکس را کلمات مورد دار انتخاب کنید تا روبات حتما تعقیب کنه لینک را :) خب حالا اینجا روبات رو میندازید توی دام :) چون عکس خیلی کوچیک هست و در حد یک pixel هست قابل دیدن نیست و هیچ بازدید کننده انسانی هیچوقت روی این لینک کلیک نمیکنه ولی روبات چون داره سایت شما رو بررسی میکنه حتما این لینک را دنبال میکنه و شما خیلی ساده میفهمید که روبات امده به سایت و به محض ورود به صفحه دام دسترسیش را به سایت ببندید و اطلاعاتش را ذخیره کنید تا دفعه دیگه هم راهش ندید به سایت :) این روش ممکنه جلوی روبات گوگل رو هم بگیره پس برای بعضی روبات ها مثل گوگل و یاهو بقیه استثنا درنظر بگیرید . مزیت ها دیگه این روش جلوگیری از سو استفاده انواع روبات ها و اسپمر های خارجی هست که اگر روزی دیدید کلی پهنا باند دارید از دست میدید و کلی ویزیتور توی امار هست ولی سایت واقعا بازدید کننده نداره بدانید که کار روبات های خارجی هست و با این روش جلوشان را میتوانید بگیرید :) تجربه من روی یکی از سایت ها واقعا زیبا بود تقریبا روزانه ۱۲۰۰ مگ پهنای باند مصرف میشد که با بستن دسترسی روبات ها و اسپمر ها و دزدهای محتوای سایت به ۸۰۰ مگ در روز مصرف پهنای باند کاهش پیدا کرد :) irdavidnet 06 تير 1387, 10:39درسته ! زدید تو هدف . برای اینکه فیلتر نشیم : 1- دسترسی روبات ها رو ببندیم 2- فیلترینگ کلمات 3- فیلترینگ کلمات 2 ( اگر فردی با یک کلمه خاص کامنت گذاشت ، نظرش حتماً باید تایید شه) 4- RSS تونو دقت کنید ... جدیداً RSS می بینن . 5- می تونید اصلاً سایتتونو پراکسی کنید . (یعنی سایتتونو با iframe یه پراکسی باز کنید ، این موتورها به iframe کاری ندارن «داخلش می رن ، اما باید لینک جدا بزنن) 6- می تونین سایتتونو با ajax لود کنید . (یه req به یه آدرس بفرستید ، مثلاً X.php ، داخل x.php هم کلی مطلب باشه ...) 7- apache تونو از پرت 80 بکنید ، بندازید روی پرت دیگه 8- GD کنید کلمات رو 9- نصب کوکی 10- با نصب کوکی و کاربرد جاوا بفهمید اگر report کرد ، دیگه دسترسیشو ببنید . » کار موتور اینطوریه : 1- اول میاد تو سایت می گرده دنباله یکسری کلمات 2- ارائه گزارش dci.ir 3- موتور دوم می آید ، گزارش نهایی 4- فی.............لیت.ر تمام شد ! || نکته جالب ناک ، 5 تا آی پی ded بخرید ، هر روز ip ها رو تو چرخش بذارید || سرور تون رو روی این سایت های رایگان بذارید ، در صورت فیلتر شدن DNS ها رو عوض کنید ، یه ایمیل بزنید به [email protected]
این صفحه را در گوگل محبوب کنید
[ارسال شده از: سایت ریسک]
[مشاهده در: www.ri3k.eu]
[تعداد بازديد از اين مطلب: 729]
صفحات پیشنهادی
روش رعایت قوانین برای جلوگیری از بسته شدن سایت -
روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای جلوگیری از بسته شدن سایت ali-k 25 اسفند 1386, 00:49دوستان این بحث در مورد ...
روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای جلوگیری از بسته شدن سایت ali-k 25 اسفند 1386, 00:49دوستان این بحث در مورد ...
ده شیوه جلوگیری از کند شدن سیستم شما
روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای جلوگیری ... 1386, 00:49دوستان این بحث در مورد بسته شدن سایت نیست یا دور زدن ...
روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای جلوگیری ... 1386, 00:49دوستان این بحث در مورد بسته شدن سایت نیست یا دور زدن ...
جلوگيري از ذخيره شدن صفحه در php -
روش رعایت قوانین برای جلوگیری از بسته شدن سایت - روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای ... داره به PHP و MySQL؟! ali-k ...
روش رعایت قوانین برای جلوگیری از بسته شدن سایت - روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای ... داره به PHP و MySQL؟! ali-k ...
جلوگیری از ایندکس شدن صفحات -
وصل شدن به اينترنت - ... روش رعایت قوانین برای جلوگیری از بسته شدن سایت - روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای .
وصل شدن به اينترنت - ... روش رعایت قوانین برای جلوگیری از بسته شدن سایت - روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای .
جلوگيري از ورود كوكي -
شما توسط وب سایت های دیگر- حذف سریع کوکی ها اینترنت اکسپلورر و فایرفاکس- پاک . روش رعایت قوانین برای جلوگیری از بسته شدن سایت - روش رعایت قوانین ...
شما توسط وب سایت های دیگر- حذف سریع کوکی ها اینترنت اکسپلورر و فایرفاکس- پاک . روش رعایت قوانین برای جلوگیری از بسته شدن سایت - روش رعایت قوانین ...
لطفا فروشگاههاي اينترنتي رعايت کنند!
روش رعایت قوانین برای جلوگیری از بسته شدن سایت - روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای ... چند موردی مینویسم لطفا شما ...
روش رعایت قوانین برای جلوگیری از بسته شدن سایت - روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای ... چند موردی مینویسم لطفا شما ...
اتفاقي جالب براي من در سايت ياهو !!! -
روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای جلوگیری از ... هدف من روش های ایجاد سایت تمیز و رعایت قوانین جمهوری اسلامی.
روش رعایت قوانین برای جلوگیری از بسته شدن سایت --روش رعایت قوانین برای جلوگیری از ... هدف من روش های ایجاد سایت تمیز و رعایت قوانین جمهوری اسلامی.
جلوگيري از كپي ديگران
نيكفال گفت: براي جلوگيري از چنين سودجوييهايي توصيه ميشود در محلهاي پررفت و آمد ... روش رعایت قوانین برای جلوگیری از بسته شدن سایت - روش رعایت قوانین ...
نيكفال گفت: براي جلوگيري از چنين سودجوييهايي توصيه ميشود در محلهاي پررفت و آمد ... روش رعایت قوانین برای جلوگیری از بسته شدن سایت - روش رعایت قوانین ...
جامعه - بدون قانون باز ميشوند، بدون قانون بسته ميشوند
جامعه - بدون قانون باز ميشوند، بدون قانون بسته ميشوند-جامعه - بدون قانون باز ميشوند، ... پس از فيلتر شدن سايت بازتاب(چند نوبت) در نهايت سال گذشته دفتر اين سايت .... آن منوط به رعايت قوانين و ضوابط است، اين روند در ايران در مورد سايتهاي اينترنتي ... فيلتر شدن سايتها از تحميل نظر يك قوا و فراتر از آن يك فرد يا دسته جلوگيري ...
جامعه - بدون قانون باز ميشوند، بدون قانون بسته ميشوند-جامعه - بدون قانون باز ميشوند، ... پس از فيلتر شدن سايت بازتاب(چند نوبت) در نهايت سال گذشته دفتر اين سايت .... آن منوط به رعايت قوانين و ضوابط است، اين روند در ايران در مورد سايتهاي اينترنتي ... فيلتر شدن سايتها از تحميل نظر يك قوا و فراتر از آن يك فرد يا دسته جلوگيري ...
روش های جلوگیـــری از بارداری : پيش از بارداری
روش های جلوگیـــری از بارداری : پيش از بارداری-دوستای گلمــ همون طور که قبلا گفته بودم . ... براي اطمينان تا تمام شدن قرصهاي آن بسته از روش ديگري (كاندوم) نيز استفاده كند. ... حال سبب جلوگيري موقت از حاملگي مي شود مشروط بر آنكه 3 مورد زير رعايت شود: .... بله البته تو سایت دانشگاه تهرانم که مطلبشو اینجا وارد کردم اومده که حتی اگه ...
روش های جلوگیـــری از بارداری : پيش از بارداری-دوستای گلمــ همون طور که قبلا گفته بودم . ... براي اطمينان تا تمام شدن قرصهاي آن بسته از روش ديگري (كاندوم) نيز استفاده كند. ... حال سبب جلوگيري موقت از حاملگي مي شود مشروط بر آنكه 3 مورد زير رعايت شود: .... بله البته تو سایت دانشگاه تهرانم که مطلبشو اینجا وارد کردم اومده که حتی اگه ...
-
گوناگون
پربازدیدترینها