واضح آرشیو وب فارسی:پرشین وی: آنالیز وب در زمینه تجاری به طور خاص به معنای استفاده از دادههای جمعآوریشده از وب برای تعیین این امر است که کدام جنبههای وبسایت در جهت اهداف یک کسب و کار معین عمل میکنند. دادههای جمعآوریشده تقریبا همیشه شامل گزارشهای "ترافیک وب" هستند. این گزارشها ممکن است حاوی میزان پاسخ ای - میل، دادههای کمپینهای میل مستقیم، اطلاعات فروش، دادههای کارکرد کاربران مثلا نمودار "هیت کلیکها" و سایر اندازهگیرهای مرسوم باشند. ● دو رویکرد تکنولوژیک دو رویکرد تکنولوژیک اصلی برای جمعآوری دادههای آنالیز وب وجود دارد: ۱) اولین روش "آنالیز لاگفایل" (logfile analysis) است. در این روش، لاگفایلها را -که وب سرورها همه عملیاتشان را در آنها ثبت میکنند- میخوانند. ۲) روش دوم "تگدادن به صفحات" (page tagging) است که از "جاوا اسکریپت" روی هر صفحه استفاده میکنند تا هنگامی که یک مرورگر وب بر روی یک صفحه عمل میکند، یک سرور ثالث را خبردار کند. ● آنالیز لاگفایل وبسرورها همیشه همه عملیاتشان را در یک لاگفایل ثبت میکنند. به زودی مشخص شد که این لاگفایلها که قابل خواندهشدن بهوسیله یک برنامه هستند، میتوانند دادههایی درباره محبوبیت یک وبسایت فراهم کنند. به این ترتیب نرمافزارهای آنالیز لاگفایل ظهور کردند. در اوائل دهه ۱۹۹۰ آمار وبسایت عمدتا متشکل از شمارش تعداد تقاضاهای ارائهشده مراجعین به وب سرور بود. این رویکرد منطقی مینمود چرا که هر وبسایت اغلب شامل یک فابل منفرد HTML بود. اما با وارد شدن گرافیک به HTML [گرافیک وب] و وبسایتهایی که چندین فایل HTML را در بر میگرفتند، این شمارش دیگر چندان مفید نبود. اولین لاگ آنالایزر واقعی تجاری در سال ۱۹۹۴ بوسیله IPRO ساخته شد. دو واحد اندازه گیری هم در میانه دهه ۱۹۹۰ برای تعیین دقیقتر فعالیت انسانی روی وب سرورها ارائه شدند. این دو واحد "صفحه دیدهشده "(page view) و "بازدیدکننده صفحه (page visit or session) بودند. "صفحه دیدهشده" به معنای تقاضای یک وب سرور برای یک صفحه، در مقابل یک گرافیک، است، اما "بازدیدکننده صفحه" به معنای یک رشته از تقاضاها از یک مرجع با هویت منحصربهفرد است که پس از مدت معینی از عدم فعالیت، معمولا ۳۰ دقیقه، منقضی شده است. "صفحات دیدهشده" و "بازدیدکنندگان صفحه" هنوز معیارهای اندازهگیری هستند که به طور رایج به نمایش درمیآیند، اما اکنون آنهارا هم ابزارهایی غیردقیق محسوب میکنند. ظهور "اسپایدرها و روباتهای" موتورهای جستجو [چطور موتورهای جستجو كار میكنند؟] در اواخر دهه ۱۹۹۰ به همراه "وب پروکسیها" و "آدرسهای IP به طور فعال اختصاصیابنده" برای شرکتهای بزرگ و ISPها، شناسایی بازدیدکنندگان منحصر به فرد انسانی از یک وبسایت را مشکلتر کرد. استفاده گسترده از "کشهای وب" نیز مانعی بر سر راه "تحلیل لاگفایل" پدید آورد. اگر شخصی یک صفحه را دوباره ببیند، تقاضای دوم از کش مرورگر (browser cache) پاسخ داده میشود، و تقاضایی در وب سرور دریافت نخواهد شد. این امر به معنای آن است که مسیر كلیك شخص در سایت از دست میرود. با پیکربندی وب سرور میتوان بر "کشکردن" (caching) غلبه کرد، اما این کار ممکن است کارکرد بازدیدکننده از وبسایت را دچار اشکال کند. ● تگ دادن به صفحه نگرانیها در مورد دقت تحلیل لاگفایل با وجود کششدن، و گرایش به انجام آنالیز وب به عنوان یک سرویس سفارشی دومین روش جمع آوری دادهها را پدید آورد: تگدادن به صفحه یا “Web bugs” در میانه دهه ۱۹۹۰ به طور شایع شمارندههای وب را در وبسایتها مشاهده میکردیم - تصاویری درون یک صفحه وب که تعداد دفعاتی را به نمایش میگذاشتند که آن تصویر درخواست میشد و به این ترتیب تخمینی از شمار بازدیدها از آن صفحه را به دست میداد. در آخر دهه ۱۹۹۰ این تصویر قابل مشاهده به یک تصویر کوچک غیرقابل مشاهده تحول یافت که با استفاده از جاوا اسکریپت، به همراه درخواست تصویر؛ اطلاعات معینی درباره صفحه و بازدیدکننده را هم انتقال میداد. بعد یک شرکت آنالیزکننده وب میتوانست این اطلاعات را از راه دور پردازش و آماری تفصیلی را تولید کند. سرویسهای آنالیز وب همچنین فرآیند تخصیصدادن "کوکی" (Cookie) به کاربران را هم انجام میدهند و به این ترتیب میتواند آنها را حین بازدید و بازدیدهای بعدی به طور انحصاری شناسایی کنند. با رواج استفاده از سلوشن"آژاکس"، شیوه جایگزینی برای کاربرد یک تصویر غیرقابل مشاهده ایجاد شده است: استفاده از فراخوان سرور از سوی صفحه اجراشده. در این شیوه هنگامی که صفحه روی مرورگر وب اجرا میشود، یک قطعه کد آژاکس، سرور را احضار میکند و اطلاعات مربوط به مرجع را به آن منتقل میکند؛ بعد این اطلاعات را یک شرکت آنالیز وب جمعآوری میکند. روزنامه همشهری
این صفحه را در گوگل محبوب کنید
[ارسال شده از: پرشین وی]
[مشاهده در: www.persianv.com]
[تعداد بازديد از اين مطلب: 314]