قالب وبلاگ

سایت رسمی حسابداری و حسابرسی
نوشته شده توسط : سایت رسمی حسابداری و حسابرسی

لیستی که در ادامه خواهید دید سایت هایی است که موتور جستجو گوگل به اونها پیج رنک(page rank)ده را داده است در یک کلام پیج رنگ به معنی ارزش یک سایت از دید گوگل است و عددی بین صفر تا ده است پیج رنک بحث برانگیز ترین مساله در بهینه سازی صفحات برای موتور های جستجو است گوگل برای محاسبه ارزش یک صفحه از وب بیش از هزار فاکتور را در نظر می گیرد که یکی از مهمترین آنها لینک ها بازگشتی است پیج رنک ده به یک وب سایت به معنای اهمیت فراوان آن برای گوگل است

روشی که با اون می توانید تعداد تقریبی صفحات ایندکس شده توسط گوگل را تخمین بزنیدجستجوی عبارات رایج در صفحات وب است مثلا WWW , the , a , an , home و غیره است (البته بعضی از موتور های جستجو امکان جستجوی این عبارات را به شما نمی دهند) در وب بیش از صد میلیون وب سایت وجود دارند که گوگل به هر کدام پیج رنکی داده است و تنها وسایت هایی که در ادامه می بینید رتبه ده که به معنی بهترین است را از گوگل گرفته اند

آدوبی:تولید کننده نرم افزار های گرافیکی مثل فتوشاپ ، آکروبات ، پریمیر ،ایلاستراتور ،ایمیج ردی و…

آپاچی:موسسه نرم افزارهای متن باز

کامپیوتر اپل:سیستم عامل و سخت افزار برای سیتم های مکینتاش

سیسکو:شبکه و تجهیزات آن

CSAIL:کامپیوتر MIT و لابراتوار هوش مصنوعی

موسسه انرژی ایالات متحده

ERCIM:شرکت تحقیقاتی ریاضیات و انفورماتیک اروپایی

گوگل:موتور جستجویی که پیج رنک را در اختیار دارد.

Keio:دانشگاه Keio در توکیو ژاپن

آی بی ام:شرکت کامپيوتري آي بي ام

ماکرومدیا:شرکت نرم افزار های گرافیکی که توسط آدوبی خریده شد

مایکروسافت:کمپاني مايکروسافت توليد کننده بسياري از نرم افزارها مثل ویندوز و آفیس ;سلطه گر تاریخ

MIT:موسسه تکنولوژیماساچوست

ناسا:آژانس دولتی برای برنامه ها و تحقیقات فضایی آمریکا

NSF:آژانس دولتی برای برنامه ها و تحقیقات علمی آمریکا

Real:نرم افزار RealPlayer ، موزیک ، ویدئو ، بازی

W3:شرکت شبکه ی جهانی وب

کاخ سفید

سایت دولت ایالات متحده

جالب است بدانید هزاران صفحه در وب دارای پیج رنک 9 هستند

سایت هایی که از 10 به 9 سقوط کرده اند:

گوگل پیج رنک

aaas

بلاگر گوگل

Elsevier

MIT

MSN

Nature Publishing Group

National Institutes of Health

Science Magazine

استات کانتر:یک شمارشگر فوق العاده برای سایت یا وبلاگ شما که امکانات بسیار زیاد و منحصر به فردی دارد شاید همین قدر کافی باشد که گفته شود سایت متر با تمام امکاناتش در برابر آن کم می آورد.

University of Washington

یاهو

به امید اون روزی که سایتی فارسی زبان هم حداقل دارای پیج رنک 9 و سایت های سورس فورج ، موزیلا و فلیکر ده شوند

در این صفحه هم می توانید صفحات با پیج رنک 10 را در بازه های زمانی مختلف ببینید



:: موضوعات مرتبط: , ,
:: بازدید از این مطلب : 1366
|
امتیاز مطلب : 17
|
تعداد امتیازدهندگان : 6
|
مجموع امتیاز : 6
تاریخ انتشار : چهار شنبه 11 خرداد 1390 | نظرات ()
نوشته شده توسط : سایت رسمی حسابداری و حسابرسی

SEO یا بهینه سازی بر پایه موتورهای جستجو درواقع پاسخ به نیاز اصلی سایت های وب جهان گستر یعنی ترافیک هدفمند یا آمار بالای بازدید کنندگان از سایت است. برای داشتن بیننده در یک سایت یا به عبارت دیگری بازاریابی برای یک سایت چندین روش وجود دارد : روش نخست تبلیغات در خارج از وب است. یعنی تبلیغات به روش سنتی ، کارایی این روش به دلایل ذیر چندان مناسب نیست . با وجود اینترنت و پیامدهای آن توجه جامعه ی جهانی ازرسانه های دیگر به سمت این پدیده کشیده شده وتبلیغات به روش سنتی حتی در زمینه های قبلی نیز کارایی خود را از دست داده چه برسد برای کار کرد در خود اینترنت. گذشته از این چون این تبلیغات درخارج از محیط وب انجام می شود ،پس تاثیر گذاری آن کم است. تصور کنید که این تبلیغ روی تابلوی تبلیغاتی یک اتوبان نصب شده باشد ، حتی در صورتی که توجه بیننده را جلب کند، احتمال اینکه او به سایت مورد نظر برود کم است چون تا از خیابان به منزل یا محل کار یا محیطی که در آن به اینترنت دسترسی دارد برود ،فاصله زمانی زیادی رخ داده و تاثیرگذاری آگهی از بین رفته است. روش دوم تبلیغات در خود وب است به عنوان مثال قراردادن یک flash تبلیغاتی در یک سایت پر بیننده. که کار روش دوم در اکثر موارد از روش اول بهتر است اما ضعفهایی هم دارد مثلا هزینه ی زیاد واینکه ما مطمئن نیستیم که کاربران آن سایت پر بیننده به آگاهی ما علاقه مند هستند یا نه . یک روش نوین دیگر هم وجود داردکه با روش های سنتی کاملا در تضاد است . در این روش در واقع به جای ارائه ی سایت به بیننده در واقع به نیاز وپرسش خود او جواب می دهیم . اینجا به جای اینکه دنبال بیننده باشیم خود بیننده ما را پیدا کرده وبه سراغ ما می آید . اما او چگونه اینکار را انجام می دهد؟ بهتر است از آمار کمک بگیریم تا متوجه شویم که کاربران اینترنت چگونه موضوع های مورد علاقه ی را پیدا می کنند :

 

تقریبا 90% از کاربران اینترنت با حداقل یک موتور جستجوگر آشنا هستند و از آن  استفاده می کنند .

 50% از کاربران اینترنت هر روز جستجو می کنند که بیش از نیمی از این جستجوها برای  کالا یا خدمات است .

  یکی از اولین کارهایی که یک کاربر تازه کار شبکه انجام می دهد ، جستجو در یکی از  موتورهای جستجوگر است .

از آمار بالا نتیجه می شود که جستوجوگرها محبوب ترین ابزار  برای جستوجوی اطلاعات در محیط وب هستند پس در این روش سعی می شود تا کاربر به این روش ما را پیدا کند درنتیجه چیزی که خود او به دنبالش بوده را ما به او ارائه می کنیم .

 نیاز به جستجوگرها یک نیاز انکارنا پذیر است . باتوجه به حجم عظیم وب و اطلاعاتی که روزانه به وب افزوده می شود کاربروب برای پیدا کردن موضوع خاصی دروب با  وجود این همه اطلاعات بی پایان دچار مشکل است و پیداشدن موتور های جستجوگر درواقع  پاسخ بر این نیاز کاربران است. درSEO سعی براین است که بینندگان بیشتری بااین روش  با سایت مورد نظر روبه رو شوند به عبارت بهتر سایت با صفحه ی مورد نظر درصفحه ی  نتایج موتور جستوجوگر که به کاربر ارائه می شود رتبه ی بالایی کسب کند . هدف نهایی  قرار گرفتن در صفحه ی اول نتایج است (نتایج اول تا دهم) و اولویت به نتایج اول تا  سوم است .

گذشته از این ها مهمترین نقش SEO در تجارت آنلاین است یعنی جایی که حضور بیننده پر  اهمیت ترین موضوع است. شرکت های بزرگ سرمایه گزاری زیادی برای قرار گرفتن سایت شان  در لیست جستوجوگرهای بزرگ انجام می دهند همین موضوع باعث رونق بازار SEO شده است.

 

 

     معرفی انواع جستجوگرها

 

 

قبل از اینکه به تکنیکهای SEO بپردازیم لازم است که یک شناخت کلی از یک جستجوگر داشته باشیم. ابتدا به برسی ساختار یکی از انواع مهم جستجوگر ها یعنی Search Engine می پردازیم.

 

 

1.       Search Engine

هر موتور جستجوگر چندین بخش مرتبط به هم دارد :

 

1.       روبات نرم افزاری : تشکیل شده از دو بخش است : Spider و Crawler

Spider  یا عنکبوت نوعی برنامه نرم افزاری است که وظیفه کاوش در وب و جمع آوری اطلاعات از وب و ارسال آن به موتور جستجوگر را به عهده دارد . و کراولر تعیین می کند که Spider باید چه کارهایی انجام دهد. کار Spider به این صورت است که طبق دستور Crawler به یک صفحه می رود اطلاعات آن صفحه را از رویSource صفحه خوانده .و به Search Engine ارسال می کند سپس باز هم با دستور Crawler لینک هایی که در آن صفحه وجود دارند را دنبال می کند .در صفحه های مقصد باز هم همین عمل را تکرار می کند . به این ترتیب Spider با دنبال کردن لینک ها )تارهای شبکه وب( مانند یک عنکبوت در شبکه تار عنکبوتی وب حرکت می کند و اطلاعات جدید را جمع آوری می کند . مجموعه روبات نرم افزاری وظیفه بایگانی کردن وب را به عهده دارد .

 

2.       بایگانی : این قسمت شامل بخش تجزیه و تحلیل گر (Indexer) وبخش پایگاه داده

(Database) است.

 

Indexer      : اطلاعاتی را که روبات نرم افزاری جمع آوری میکند در اختیار این بخش قرار میدهد. Indexer اطلاعات ارسالی را تجزیه و تحلیل می کند. به عبارت دیگر اطلاعات را سازماندهی می کند. به عنوان مثال در یک سند چند کلمه وجود دارد، کلمات کلیدی در کجای متن هستند، نسبت کلمات کلیدی به کل متن چند است، تصاویر در کجای صفحه هستند و به طور کلی همه پارامترهایی را که به جستجوگ، در تعیین رتبه سند کمک میکنند در این مرحله بدست میایند. این پارامترها در Indexer به یک مقیاس عددی تبدیل می شوند تا سیستم رتبه بندی بتواند الگوریتم های خاص ویژه و فوق محرمانه موتور جستجوگر را که آنها هم محرمانه هستند اعمال کند و در نهایت رتبه هر سایت مشخص می شود.

 Indexer  سپس اطلاعات صفحه و پارامترها را در اختیار پایگاه داده جستجوگر قرار می دهد. با توجه به اینکه هر جستجوگر نوعی بایگانه کننده وب به شمار می رود، پس باید پایگاه داده عظیمی برای بایگانی وب داشته باشد. علاوه بر این یک جستجوگر باید الگوریتم های  خاصی برای جستجو در پایگاه داده خودش داشته باشد تا در کمترین زمان اسناد مورد نظر را بر اساس سوالات کاربر ارائه دهد.

     علاوه بر این برای بالا بردن سرعت جستجو در پایگاه داده، اطلاعات گروه بندی و کدگذاری می شوند تا دسترسی به آنها آسانتر شود. این مرحله ضعف عمده جستجوگرها بشمار می رود چون در صورت وجود ابهام در سوال کاربر و  گروه بندی های کلی نتایج  بسیار وحشتناکی ببار می اورد . یکی از تفاوت های عمده موتورهای جستجوگر در حجم پایگاه داده آنها و همینطور نحوه سازماندهی اطلاعات و جستجو در پایگاه داده است.

      هر موتور جستجوگر فقط نتایجی را به کاربر ارائه می دهد که در پایگاه داده اش وجود دارند، به عبارت بهتر عمل جستجو فقط در پایگاه داده جستجوگر انجام می شود. پس، پیش از مراجعه کاربر، جستجوگر باید پایگاه داده خود را آماده کند.

 

3.       سیستم رتبه بندی Ranker : این مرحله تنها مرحله ای است که بعد از وارد کردن

کلمات کلیدی توسط کاربر انجام می شود. یعنی قبل از عمل جست و جو مراحل قبل باید به پایان رسیده باشند؛ Spider اطلاعات را ارسال کرده، در جستجوگر اطلاعات تجزیه  تحلیل و ذخیره شده اند و پایگاه داده جستجوگر آماده شده است و سیستم آماده پاسخگویی می شود.

 

     البته کار روبات نرم افزاری هیچگاه تمام نمی شود و دائما در حال پرسه زنی و جمع آوری اطلاعات از وب است. بعد از اینکه کاربر کلمات کلیدی خود را وارد کرد، این کلمات در بانک اطلاعاتی جستجو می شوند و نتایج مرتبط بدست می آید. اما هنوز یک مرحله باقی مانده است، یعنی چگونگی ارائه این نتایج به کاربر.  اگر نتایج جستجو کم باشد مشکل چندانی پیش نمی آید و نتایج در یک صفحه به کاربر ارائه می شوند. اما در صورتی که صفحات زیادی پیدا شود مثلا چند هزار صفحه، در این صورت، تصمیم گیری در مورد اینکه کدام صفحات در رتبه های بالا بویژه بین ده رتبه اول قرار بگیرند بسیار مهم است.

     سیستم رتبه بندی این وظیفه را به عهده دارد. این سیستم با اعمال یکسری الگوریتم های ویژه و خاص و البته محرمانه، روی پارامترهای سندهای مختلف، به هر صفحه یک رتبه اختصاص می دهد و در نهایت صفحات در خروجی به ترتیب از بیشترین تا کمترین ارتباط مرتب می شوند.

     مهمترین تفاوت موتور جستجوگرهای مختلف، تفاوت در الگوریتم های سیستم رتبه بندی آنها است. همین موضوع باعث می شود که یک کلیدواژه در چند جستجوگر مختلف، نتایج متفاوتی داشته باشد.

     هدف از بهینه سازی سایت این است که پارامترهای مورد توجه جستجوگر که در صفحات سایت وجود دارند را طوری تنظیم و بهینه کنیم که در سیستم رتبه بندی و بعد از اعمال الگوریتم ها روی آنها، رتبه مناسبی به سایت داده شود.

     نکته قابل توجه این است که هیچکدام از این پارامترها و الگوریتم ها شناخته شده و قطعی نیست و در موتورهای مختلف، متفاوت است. و در طول فرایندهای بهبود رتبه، از روی تجربه و مقایسه نتایج مختلف حدس زده می شوند.

     مهمترین ویژگی این نوع جستجوگرها، وجود روبات نرم افزاری است که هیچگاه از فعالیت نمی ایستد و همواره اطلاعات جدید وب را جمع آوری می کند یا اطلاعات قدیمی را به روز می کند. که این امر به روز بودن نتایج ارائه شده را در پی دارد.

     مهمترین جستجوگر در این دوره Google است.

     سایر جستجوگرهای مهم عبارتند از :

Fast (All the web)

Altavista

MSN

Teoma

Info Seek

Nurthern Light

 

2.       Directory :

     دایرکتوری یا فهرست، اطلاعات وب را به صورت موضوعی طبقه بندی می کند؛ به این صورت که کاربرازکل اطلاعات به قسمت های جزئی وتخصصی می رسد. درواقع کاربردر هر مرحله یک فهرست را انتخاب می کند و از آن فهرست یک زیرفهرست و به همین ترتیب آنقدر ادامه می دهد تا به نتیجه دلخواه برسد. به عنوان مثال اگر شما به دنبال تاریخچه یک تیم فوتبال باشید، به جای وارد کردن کلمات مرتبط در موتور جستجوگر، از دایرکتوری شاخه ورزشی را انتخاب می کنید سپس، زیرشاخه فوتبال و زیر شاخه تاریخ تیم های فوتبال را انتخاب می کنید که در این زیرشاخه ممکن است اطلاعات مورد نظر شما وجود داشته باشد.

     ساختار دایرکتوری ها به این ترتیب است که هر دایرکتوری چندین ویراستار دارد، هر سایت برای قرار گرفتن در دایرکتوری باید ضمن معرفی سایت  و انتخاب گروه و زیر گروه مناسب، خود رابه دایرکتوری معرفی کند. بعد از آن ویراستارهای دایرکتوری سایت را از نظر تناسب محتوا با گروه انتخابی و سایر قوانین برسی می کنند. در صورت پذیرفته شدن، سایت مورد نظر در دایرکتوری به ثبت می رسد. در نتیجه این نوع جستجوگرها نیازی به روبات نرم افزاری ندارند و از آن استفاده نمی کنند. بنابراین تا زمانیکه یک سایت خود را به دایرکتوری معرفی نکند از دید آن پنهان است.

     در فرایند بهینه سازی قرار گرفتن در دایرکتوری های بزرگ یک مرحله مهم و از اولین مراحل شروع ثبت در موتورهای جستجوگر است.

مهمترین دایرکتوری ها عبارتند از :

Yahoo

Internet Public Library

Dmoz

Look Smart

Galaxy

 

3.       موتورهای جستجوگر مادر (Meta Search Engine) :

     این نوع جستجوگر از چندین موتور جستجو به طور همزمان و موازی استفاده می کند. به این صورت که سوال کاربر را به طور همزمان به چند موتور جستجوی مهم می فرستد وگزیده نتایج مهم و غیر تکراری آنها را به کاربر ارائه می کند. به این ترتیب نتایج چندین موتور جستجو در یک صفحه در اختیار کاربر قرار داده می شود.

     مهمترین انواع موتورهای مادر عبارتند از :

Mamma

Meta Crawler

Dog pile

Ixquick

 

4.       جستجوگر پرداخت به ازای هر کلیک (Pay per click search engine) :

     طرز کار این نوع جستجو گرها دقیقا مشابه Search Engine است، با این تفاوت که شما برای قرار گرفتن در رتبه ای خاص باید مبلغ بالاتری نسبت به سایر رقبا بپردازید.

     مثلا اگر سایتی در رتبه سوم صفحه نتایج به ازای کلیدواژه خاصی باشد و برای قرار گرفتن در این رده مبلغ ¢30 به ازای هر کلیک را می پردازد، شما برای قرار گرفتن در این رتبه باید مبلغی بیشتر از ¢30 بپردازید. این مبلغ تنها برای یک کلیک است. یعنی هر زمان که یک کاربر کلیدواژه مذکور را جستجو کند و از طریق این جستجوگر سایت شما را پیدا کند، شما باید این مبلغ را بپردازید. به عبارت بهتر قرار گرفتن در رتبه های این نوع سایت ها حالت مزایده دارد.

     اگر سایت شما یک سایت تجاری باشد، برای قرار گرفتن در رتبه بندی اکثر جستجوگرها شما مجبور به پرداخت مبلغی معین هستید.



:: موضوعات مرتبط: , ,
:: بازدید از این مطلب : 1141
|
امتیاز مطلب : 15
|
تعداد امتیازدهندگان : 6
|
مجموع امتیاز : 6
تاریخ انتشار : چهار شنبه 11 خرداد 1390 | نظرات ()
نوشته شده توسط : سایت رسمی حسابداری و حسابرسی

حتمآ دقت كرده ايد كه در وردپرس،شما مي توانيد در داشبورد وبلاگتان اطلاعات مفصل آماري وبلاگتان را داشته باشيد كه دراين مورد وردپرس از امكانات گوگل آناليتيك استفاده مي كند. خوب سوالي كه در اينجا ممكن هست كه پيش بيايد اين است كه در اين داده ها بايد به كدام يك از اين ها زياد دقت و توجه كنيم و كدام يك را نبايد زياد جدي بگيريم.البته اين مسئله كه بايد به بررسي آن بپردازيم فقط براي وردپرسي ها نيست و همه ي كساني كه از يك سرويس آمارگيري استفاده مي كنند مي توانند از اين مبحث استفاده كنند. من در مطلبي تعدادي از سايت هاي آمارگيري را به شما معرفي كردم كه مي توانيد در ميان آنها يكي را انتخاب كنيد.در هر صورت من توصيه مي كنم كه از سرويس خوب گوگل آناليتيك استفاده كنيد چون بسيار دقيق است ولي خوب سرويس هاي ديگري هم هستند كه بسيار خوب هستند.من در اين پست در مورد بخش هاي گوگل آناليتيك سخن خواهم گفت ولي خوب مي توانيد شما معادل اين ها را در سرويس مربوطه ي خود پيدا كيند.

توجه كنيد كه همه‌ي اطلاعات ارائه شده در سرويس هاي آمار گيري نمي تواند براي شما مفيد باشد

البته ممكن هست كه اين عنوان كمي باعث اشتباه شود.منظور من از اين مطلب اين بود كه بسياري از بلاگر هابيشتر دقت و توجه‌شان در داده هاي آماري سايتشان به تعداد كلي بازديد كنندگان هست،به جاي بررسي داده هاي ديگري كه اين سرويس ها در اختيارشان قرار مي دهد.

در اينجا 4 بخش مهم هست كه توصيه مي كنم كه به داشبورد اكانتتان در گوگل آناليتيك‌تان اضافه كنيد.به اين آمار ها بشتر دقت كنيد، و وبلاگتان را اگر بر اساس آن تنظيم كنيد مطمئن باشيد كه اين كار مي تواند باعث پيشرفت بسيار عالي وبلاگتان شود(كاري كه خودم هم انجام خواهم داد).

1.Depth of Visit

 

عنوان،نشان دهنده‌ي كار اين داده‌ي آماري است.خوب ممكن است كه وبلاگ شما هم مثل وبلاگ من داراي صفحات داخلي تري باشد.يعني همان پست هايي كه بعد از نوشتن پست هاي بعدي، به صفحات داخلي تر ميروند.اين داده ي آماري بيان كننده ي تعداد بازيديد كنندگان وبلاگتان از صفحات مختلف وبلاگتان است.خوب همان طور كه در اين نما مي بينيد بيش از 50 درصد بازديد كنندگان وبلاگ من فقط صفحه‌ي اصلي وبلاگ را بازديد مي كنند وبه عبارت ديگر 50 درصد بازديدكنندگان به صفحات داخلي تر وبلاگ مي روند و آنجا را هم مشاهده مي كنند.حال اگر در آمار دقت كنيد مي بينيد كه چيزي حدود 3% بازديد كنندگان وبلاگ،داخلي ترين صفحات وبلاگ را هم مشاهده مي كنند.خوب ممكن است كه اين عدد، عدد كمي باشد ولي مي تواند بسيار خوشحال كننده باشد.چون نشان دهنده‌ي اين است كه شما در وبلاگتان بازديد كنندگاني داريد كه حتي مايل به خواندن طالب قديمي تر وبلاگتان هستند و به عبارت ديگر شما بازديد كنندگان واقعي تر و پايه!‌تري براي وبلاگتان دارند كه واقعآ وبلاگ شما را دوست دارند.لذا بالا بردن اين آمار بسيار مي تواند مهم تر و مفيد تر باشد نسبت به آمار اصلي وبلاگ.

2. Average Pageviews for All Visitors

آمار ديگري كه بسيار مهم است تعداد بازديد كنندگان صفحات مختلف وبلاگتان در يك دوره‌ي زماني خاص است.به عبارت ديگر اين آمار به شما نشان مي دهد كه بازديد كنندگان وبلاگ شما به طور ميانگين در هر بازديد از وبلاگ شما چند صفحه‌ي وبلاگتان را بازديد كرده اند.حال سوالي پيش مي آيد كه اين عدد چه مقدار باشد خوب است؟ پاسخ اين است كه هرچقدر بيشتر بهتر! ولي خوب اگر به طور متوسط بخواهيم بررسي كنيم ،اين عدد بستگي به نوع سايت شما دارد.اگر يك سايت تجاري داريد، بايد بيشتر كاري كنيد كه بازديد كنندگانتان به صفحه‌ي اصلي وبلاگتان وارد شوند تا صفحه ي داخلي.خوب ممكن است كم بودن بازديد از صفحات داخلي باعث كم شدن  اين آمار باشد ولي خوب نبايد نگران بود.ولي اگر هم وبلاگي داريد بايد به ميانگين بيشتر توجه كنيد تا حداكثر اين عدد.(دليلش را ديگر خودتان مي داند)

3. Time on Site for All Visitors

اين آمار ميانگين مدت زمان باقي ماندن بازديد كنندگان وبلاگتان را نشان ميدهد.در صورتي كه مي خواهيد بدانيد مطلبي كه شما مي نويسيد چقدر توانسته است بازديد كننده را مجذوب! خود كند به اين آمار بسيار دقت كنيد.در هر صورت اگر رشد صعودي اين آمار را مي بينيد مي توانيد به خودتان اميدوار باشيد.

4.Length of Visit

خوب اين هم به صورت درصدي مدت زمان بازديد وبلاگتان را طبقه بندي كرده است .در صورتي سايتي تجاري داريد كه در آن محصولاتي را براي فروش گذاشته ايد مي تواند اين آمار بسيار براي شما مهم باشد.

در نهايت هم به نظر من بايستي كه اين نكته را بدانيم كه از اين 4 فاكتور هر 4تا مهم هستند و بايد به هر 4 تا به دقت توجه شود.

Deeper Visits = More Pageviews = Longer Time on Site = Greater Length of Visit

با اين توضيح باديدن آمار كم بازديد كنندگانتان زياد نگران نباشد.اول به اين آمار ها دقت كنيد بعد…

در ضمن در صورتي كه اكانت Google Analytics نداريد همين الان آن را راه اندازي كنيد.



:: موضوعات مرتبط: , ,
:: بازدید از این مطلب : 1102
|
امتیاز مطلب : 18
|
تعداد امتیازدهندگان : 5
|
مجموع امتیاز : 5
تاریخ انتشار : چهار شنبه 11 خرداد 1390 | نظرات ()
نوشته شده توسط : سایت رسمی حسابداری و حسابرسی

زمان لازم براي باز شدن صفحات وب از دغدغه‌هاي اصلي صاحبان وب‌سايت‌ها است. اين مقاله را بخوانيد تا با ده روش موثر در ارائه سريعتر صفحات آشنا شويد.
زمان لازم براي باز شدن صفحات وب از دغدغه هاي اصلي صاحبان وب سايت ها است. اين مقاله را بخوانيد تا با ده روش موثر در ارائه سريعتر صفحات آشنا شويد.

1 – استفاده از scriptهاي خارجي:

اگر مي خواهيد از دستورهاي script در صفحات مختلف وب سايت خود استفاده مي کنيد، بهترين ترفند استفاده از script هاي خارجي است. اين بدان معني است که دستورات javascript از منابع ديگري لود شود.

مثلا:

اين راه کمک مي کند تا مرورگر script را ذخيره (cache) کند و بارها و بارها آن را بخواند.

2- کاهش درخواست هاي HTTP

فرض کنيد لود هر آيتم به روي وب سايت شما حدود دو دهم ثانيه زمان بگيرد. پس اگر سايت شما بطور همزمان 10 عکس رو لود کند، صرف نظر از اين که آيتم ها ، استايل شيت، عکس، يا اسکريب باشند زماني حدود دو ثانيه طول خواهد شد. بنابراين بايد تلاش کنيد تا از اين درخواست هاي HTTP کاسته شود.

مثلا در بخش فوتر سايت که سهم عکس زياد است بايد با استفاده از روش هايي مثل imagemap بخش زيادي از درخواست هاي HTTP را کم کنيد.

3- به سايت هاي ديگر وابسته نباشيد

اگر به سايت هاي ديگر وابسته هستيد مطمئن باشيد که سرعت لود صفحات شما زياد مي شود. اگر وب سايت شما از مولفه هاي مختلفي تشکيل شده که از روي سايت هاي ديگر اجرا مي شود حتما سرعت لود صفحات کم خواهد شد چون ممکن است سرورهايي که به آن وابسته ايد، درخواست هاي HTTP زيادي داشته باشند.

4- بهينه سازي عکس ها

هميشه از گزينه save for web براي کم کردن حجم عکس هاي وب استفاده کنيد. اين گزينه را مي توانيد در برنامه هايي مانند فتوشاپ ببينيد.[مروري بر گرافيك وب - 1]

5- فاصله اضافي را حذف کنيد

منظور از فاصله اضافي در اينجا فاصله هاي بلااستفاده اي است که مابين کدهاي صفحه وجود دارد. حذف کردن تب ها و فاصله هاي اضافي از کدها يعني کم کردن بايت هاي اضافي که کاربردي ندارند. حتما اين کار را انجام دهيد و ببيند که چقدر در زمان لود صفحه شما موثر خواهد بود.

6- استفاده از CSS و بهينه کردن CSS

CSS مي تواند مهم ترين تاثير را در زمان لود صفحات داشته باشد. مرورگر مي تواند تمامي فرمت ها و استايل هاي صفحات شما را ذخيره کند و بارها و بارها آنها را نخواند. در ضمن مطمئن شويد که CSS اي تر و تميز و مرتب داريد. مي توان از www.cleancss.com استفاده کرد تا بخش هاي شبيه به هم را ادغام، کدهاي بي استفاده را شناسايي و فواصل اضافي از بين کدهاي شما را حذف کند.

7- اسلش را فراموش نکنيد

وقتي کاربران به سراغ لينک يا صفحه اي خواص مثل اين آدرس بروند www.hamshahrionline.ir/Contact سرور ناگزير از ساختن صفحاتي با اين محتوا است.

اما اگر يک (/) به انتهاي آدرس اضافه شود (www.hamshahrionline.ir/Contact) آنگاه سرور دقيقا مي داند چه چيزي مورد درخواست کاربر بوده و در کاهش زمان لود بسيار موثر است.

8- کدام فرمت عکس استفاده شود؟

شما بايد از دو فرمت GIF و PNG براي عکس هاي خود استفاده کنيد. فرمت GIF بيشتر در مواردي که از رنگ تخت استفاده شده کاربرد دارد مانند لوگوها و دگمه ها.

PNG نيز مانند GIF فرمت ساده اي است که از تعداد رنگ هاي بيشتري پشتيباني مي کند. JPEG فرمتي است که بيشتر مناسب عکاس ها و عکس هايي است که مي خواهند رنگ واقعي داشته باشند.

9- از تگ هاي عرض و ارتفاع غافل نشويد

تگ هاي عرض و ارتفاع براي عکس ها بسيار مهم است. اين تگ ها براي مرورگر مشخص مي کند که چه فضايي از صفحه به عکس اختصاص دارد و از ابتدا تا زمان لود کامل فضاي کافي براي عکس را کنار مي گذارد و با سرعت بيشتري مي تواند ساير عناصر صفحه را لود کند. بنابراين هرگز از اين تگ گذاري غافل نشويد.

10- استفاده از Cache هم از مواردي است که مي تواند در لود سريعتر صفحات کمک زيادي بکند



:: موضوعات مرتبط: , ,
:: بازدید از این مطلب : 1296
|
امتیاز مطلب : 22
|
تعداد امتیازدهندگان : 7
|
مجموع امتیاز : 7
تاریخ انتشار : چهار شنبه 11 خرداد 1390 | نظرات ()
نوشته شده توسط : سایت رسمی حسابداری و حسابرسی

آيا زمان زيادي طول مي كشد كه به سايت مورد علاقه خود دست پيدا كنيد؟ احتمالاً مشكل از سروري كه آن سايت از آن استفاده مي كند مي باشد براي اطمينان از از اينكه مشكل از سرور است از تسهيلات PING در ويندوز 98 استفاده كنيد. ping  يك برنامه كوچك است كه يك سيگنال 32 بيت به سرور وب سايت مذكور مي فرستد، ping زمان مورد نياز براي پاسخ دهي سرور را ثبت مي كند براي فعال كردن ping به صورت زير عمل مي كنيم:

روي start>Run كليك كنيد در فيلد خالي تايپ كنيد Command و سپس روي ok كليك كنيد در پنجره MS-DOS Prompt تايپ كنيد: PING site name براي مثال تايپ كنيد :

PING  http://amozeshe-internet.blogfa.com

در يك لحظه نتيجه اي ظاهر خواهد شد . اگر نتيجه كمتر از 300 ميلي ثانيه بود نرمال است در حاليكه اگر نتيجه بيش از 400 ميلي ثانيه باشد سرعت كم است.

اگر پيغام Request time ظاهر شد به اين معني است كه سرور آن وب سايت در يك ثانيه نتوانسته پاسخ دهد و در اين صورت احتمالاً سرور خيلي كند است يا بر اساسي طراحي شده است كه به تست ping پاسخ ندهد و يا شما فراموش كرده ايد كه نام  آدرس سرور را در setting ديالوگ باكس TCP/IP تعيين كنيد.

www.Bikalak.com



:: موضوعات مرتبط: , ,
:: بازدید از این مطلب : 1257
|
امتیاز مطلب : 17
|
تعداد امتیازدهندگان : 9
|
مجموع امتیاز : 9
تاریخ انتشار : چهار شنبه 11 خرداد 1390 | نظرات ()