‫۱۵ سال و ۵ ماه قبل، پنجشنبه ۳۱ اردیبهشت ۱۳۸۸، ساعت ۱۸:۵۴
class ها و lang|style|size|face|[ovwxp باید حذف بشه. ولی اگر روش فوق راضی کننده نبود از روش مقاله زیر هم می‌توان استفاده کرد:
http://www.codinghorror.com/blog/archives/000485.html

یک روش دیگر هم این است که کلا هرچی تگ html است را یکجا حذف کرد. روش کار به صورت زیر است:
http://gibbons.co.za/archive/2005/01/28/249.aspx
‫۱۵ سال و ۲ ماه قبل، پنجشنبه ۵ شهریور ۱۳۸۸، ساعت ۲۰:۴۴
عرض کردم. رپیدشیر فقط تا 200 مگ اجازه remote upload یا بقولی ترنس‌لود را می‌دهد. برای مابقی به سایت اصلی مراجعه کنید (یعنی 6 قسمت دیگر که هر کدام بالای 200 مگ است).
‫۱۵ سال و ۲ ماه قبل، پنجشنبه ۵ شهریور ۱۳۸۸، ساعت ۰۴:۴۹
سلام
یک سری از این‌ها که زیر 200 مگ بود را از اینجا دریافت کنید:
http://vahid.nasiri.googlepages.com/NH-links.txt

مابقی را باید به سایت مربوطه مراجعه کنید (چون نمی‌شود به رپیدشیر منتقل کرد).
‫۱۵ سال و ۲ ماه قبل، چهارشنبه ۲۸ مرداد ۱۳۸۸، ساعت ۰۰:۵۶
یا مشکل DNS هست یا از اون طرف ما رو فیل‌تر کردند.
از یک فیل‌تر شکن استفاده کنید کار می‌کنه.
‫۱۳ سال و ۶ ماه قبل، یکشنبه ۱۴ فروردین ۱۳۹۰، ساعت ۱۸:۰۲
مشکل در پوسته انتخابی شما است که قسمت ارسال مطالب دوبار در آن تکرار شده چون اگر به اچ تی ام ال صفحه نهایی رندر شده خودتون مراجعه کنید می‌بیند که دوبار این قسمت مطالب هست یعنی قالب ایراد دارد و یک قسمت تکراری دارد که باید حذف شود
مشکل از اسکریپت یا جای دیگر نیست. مشکل از قالب اصلی انتخابی است
‫۱۳ سال و ۱۳ ماه قبل، یکشنبه ۴ مهر ۱۳۸۹، ساعت ۲۱:۱۰
تصحیح!
در کد فوق، ++i هست و نه i (در هر دو حلقه). همچنین یک ++j هم در حلقه بعدی هست. یا به اصل کد مراجعه کنید در ماخذ یاد شده.
‫۱۵ سال و ۸ ماه قبل، چهارشنبه ۳۰ بهمن ۱۳۸۷، ساعت ۱۹:۱۳
راهی که در تمام زبان‌های برنامه نویسی برای چک کردن مطمئن دسترسی به اینترنت وجود دارد دانلود کردن یک صفحه از اینترنت است. عموما سایت گوگل پیشنهاد می‌شود چون احتمال داون بودن آن در حد صفر است.
با استفاده از HttpWebResponse صفحه اول گوگل را دانلود کنید. اگر StatusCode مربوط به GetResponse مساوی OK بود یعنی دسترسی به اینترنت دارید.
‫۱۵ سال و ۱۲ ماه قبل، یکشنبه ۵ آبان ۱۳۸۷، ساعت ۲۲:۵۵
در این مورد خیر.
اگر سرور یا حتی برنامه برای این نوع حملات آماده نشده باشند، بله. این روش‌ها می‌تونه عملیات سایت رو مختل کنه. البته هدف من فقط دریافت فید از یک سایت مادر بود :)
مطلبی رو چند وقت پیش در سایت آقای Omar AL Zabir دیدم که در همین ارتباط بود. نحوه ایجاد این نوع حملات و نحوه دفاع توسط یک برنامه هوشمند که برای این موارد آماده شده:
مشاهده مطلب:
http://msmvps.com/blogs/omar/archive/2007/03/24/prevent-denial-of-service-dos-attacks-in-your-web-application.aspx
مثالی هم که در سایت ایشون برای حمله عنوان شده عملا با پیش فرض‌های دات نت (حداکثر 2 کانکشن همزمان) کار خاصی رو انجام نمیده و نهایتا timeout خواهند گرفت، مگر اینکه ...
‫۱۴ سال و ۱۳ ماه قبل، شنبه ۴ مهر ۱۳۸۸، ساعت ۲۰:۵۰
زمانیکه صحبت از دیتابیس شیرپوینت می‌شود یعنی دیتابیس بالای 50 گیگ.
و به 2 دلیل در اینجا نباید از auto shrink استفاده کرد:
- کاهش حجم قابل ملاحظه ذکر شده توسط auto shrink رخ نمی‌دهد.
- auto shrink یکی از مواردی است که به شدت روی کارآیی دیتابیسی حجیم تاثیر منفی دارد و همچنین سبب ایجاد fragmentation می‌شود و در اکثر مقالات استفاده از آن به شدت نهی شده‌است.