فی توو

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

فی توو

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

پایان نامه فاکتورهای ارتقای رده بندی سایت در موتورهای جستجو با پاورپوینت

اختصاصی از فی توو پایان نامه فاکتورهای ارتقای رده بندی سایت در موتورهای جستجو با پاورپوینت دانلود با لینک مستقیم و پر سرعت .

پایان نامه فاکتورهای ارتقای رده بندی سایت در موتورهای جستجو با پاورپوینت


پایان نامه فاکتورهای ارتقای رده بندی سایت در موتورهای جستجو با پاورپوینت

 

این فایل در دو قالب ورد و پاور پوینت و قابل ویرایش در 45 صفحه و 31 اسلاید می باشد.

 

فهرست
مقدمه ۶
فصل اول: موتورهای جستجوگر
۱-۱- اینترنت و حضور در آن ۸
۲-۱- تاریخچه جستجو گرها ۸
۳-۱- علت پیدایش موتورهای جستجو ۹
۴-۱- موتور جستجو چیست؟ ۹
۵-۱- معرفی انواع جستجوگرها ۱۰
۶-۱- نگاهى به موتورهاى جستجو در اینترنت,جستجو میان صدها میلیون صفحه ۱۷
۱-۶-۱- جستجو میان صدها میلیون صفحه ۱۸
۲-۶-۱- ایجاد فهرست ۲۰
۳-۶-۱- آینده موتورهاى جستجوگر ۲۲
فصل دوم: سئو (SEO) و بهینه سازی صفحات
۱-۲- سئو (SEO) و بهینه سازی صفحات چه ارزشی دارد؟ ۲۴
۲-۲- سئو(SEO) علم است یا هنر ؟ SEM چیست؟ ۲۶
۳-۲- بازاریابی موتورهای جستجو یا SEM یعنی چه؟ ۲۷
۴-۲- چرا SEO مهم است؟ ۲۷
۵-۲- چه کسانی به SEO احتیاج دارند؟ ۲۸
۶-۲- ابزارهای SEO چیست؟ ۲۸
۷-۲- مقدمات SEO, شروع بهینه سازی ۲۹
۱-۷-۲- انتخاب واژه های کلیدی ۲۹
۲-۷-۲- فرایند بهینه سازی ۳۱
۳-۷-۲- بهینه سازی متن ها ۳۲
۴-۷-۲- محل اعمال پارامترها ۳۳
فصل سوم: اسرار و ترفندهای بهینه سازی
۱-۳- اسرار و ترفندهای بهینه سازی صفحات ۳۴
۲-۳- ساختار سایت ۴۰
۳-۳- بهینه سازی تصاویر و پیوندها ۴۱
۴-۳- استفاده بهینه از متن ۴۱
۵-۳- معرفی به موتورهای جستجو و فهرست ها ۴۱
۶-۳- تبلیغات در موتورهای جستجو ۴۲
منابع ۴۴
مقدمه
SEO یا بهینه سازی بر پایه موتورهای جستجو درواقع پاسخ به نیاز اصلی سایت های وب جهان گستر یعنی ترافیک هدفمند یا آمار بالای بازدید کنندگان از سایت است. برای داشتن بیننده در یک سایت یا به عبارت دیگری بازاریابی برای یک سایت چندین روش وجود دارد :
روش نخست تبلیغات در خارج از وب است. یعنی تبلیغات به روش سنتی ، کارایی این روش به دلایل زیر چندان مناسب نیست. با وجود اینترنت و پیامدهای آن توجه جامعه ی جهانی ازرسانه های دیگر به سمت این پدیده کشیده شده وتبلیغات به روش سنتی حتی در زمینه های قبلی نیز کارایی خود را از دست داده چه برسد برای کار کرد در خود اینترنت. گذشته از این چون این تبلیغات درخارج از محیط وب انجام می شود ،پس تاثیر گذاری آن کم است. تصور کنید که این تبلیغ روی تابلوی تبلیغاتی یک اتوبان نصب شده باشد ، حتی در صورتی که توجه بیننده را جلب کند، احتمال اینکه او به سایت مورد نظر برود کم است چون تا از خیابان به منزل یا محل کار یا محیطی که در آن به اینترنت دسترسی دارد برود ،فاصله زمانی زیادی رخ داده و تاثیرگذاری آگهی از بین رفته است.
روش دوم تبلیغات در خود وب است به عنوان مثال قراردادن یک flash تبلیغاتی در یک سایت پر بیننده. که کار روش دوم در اکثر موارد از روش اول بهتر است اما ضعفهایی هم دارد مثلا هزینه ی زیاد واینکه ما مطمئن نیستیم که کاربران آن سایت پر بیننده به آگاهی ما علاقه مند هستند یا نه .
یک روش نوین دیگر هم وجود داردکه با روش های سنتی کاملا در تضاد است . در این روش در واقع به جای ارائه ی سایت به بیننده در واقع به نیاز وپرسش خود او جواب می دهیم . اینجا به جای اینکه دنبال بیننده باشیم خود بیننده ما را پیدا کرده وبه سراغ ما می آید . اما او چگونه اینکار را انجام می دهد؟ بهتر است از آمار کمک بگیریم تا متوجه شویم که کاربران اینترنت چگونه موضوع های مورد علاقه ی را پیدا می کنند :
تقریبا ۹۰% از کاربران اینترنت با حداقل یک موتور جستجوگر آشنا هستند و از آن استفاده می کنند .۵۰% از کاربران اینترنت هر روز جستجو می کنند که بیش از نیمی از این جستجوها برای کالا یا خدمات است .
یکی از اولین کارهایی که یک کاربر تازه کار شبکه انجام می دهد ، جستجو در یکی از موتورهای جستجوگر است .
از آمار بالا نتیجه می شود که جستجوگرها محبوب ترین ابزار برای جستجوی اطلاعات در محیط وب هستند پس در این روش سعی می شود تا کاربر به این روش ما را پیدا کند درنتیجه چیزی که خود او به دنبالش بوده را ما به او ارائه می کنیم .
نیاز به جستجوگرها یک نیاز انکارنا پذیر است . باتوجه به حجم عظیم وب و اطلاعاتی که روزانه به وب افزوده می شود کاربروب برای پیدا کردن موضوع خاصی در وب با وجود این همه اطلاعات بی پایان دچار مشکل است و پیداشدن موتور های جستجوگر درواقع پاسخ بر این نیاز کاربران است. درSEO سعی براین است که بینندگان بیشتری بااین روش با سایت مورد نظر روبه رو شوند به عبارت بهتر سایت با صفحه ی مورد نظر درصفحه ی نتایج موتور جستجوگر که به کاربر ارائه می شود رتبه ی بالایی کسب کند . هدف نهایی قرار گرفتن در صفحه ی اول نتایج است (نتایج اول تا دهم) و اولویت به نتایج اول تا سوم است .
گذشته از این ها مهمترین نقش SEO در تجارت آنلاین است یعنی جایی که حضور بیننده پر اهمیت ترین موضوع است. شرکت های بزرگ سرمایه گزاری زیادی برای قرار گرفتن سایت شان در لیست جستجوگرهای بزرگ انجام می دهند همین موضوع باعث رونق بازار SEO شده است.


۱-۱- اینترنت و حضور در آن
از سال ۱۹۹٢ یک منبع بسیار مهم دیگر به منابع اطلاعاتی اضافه شد و آن شبکه جهانی وب (World Wide Web) یا همان اینترنت است. به جز کاربرد در زمینه اطلاع رسانی اینترنت کاربردهای بیشمار و غیر قابل تصوری در تجارت و سایر زمینه های زندگی نیز پیدا کرده است. به بیان دیگر امروزه در هر زمینه ای که بتوان تصور کرد، اینترنت یک ابزار موثر و توانمند به حساب می آید. حضور در اینترنت حقیقتا باید بخشی از بازاریابی شما باشد.

۲-۱- تاریخچه جستجو گرها
در اولین روزهای گسترش اینترنت، کاربران آن آزادی عملی کمی داشتند و مقدار اطلاعات آن نیز نسبتا کم بود. بیشتر دسترسی به اینترنت توسط کارکنان دانشگاهها و آزمایشگاه ها بود که از آن به منظور دستیابی به اطلاعات علمی استفاده می کردند. در آن روزها مشکل یافتن اطلاعات در اینترنت به اندازه امروز بحرانی نبود. دایرکتوریها یکی از اولین شیوه هایی بودند که دسترسی به منابع اطلاعات در شبکه را آسان می نمودند. در دایرکتوریها منابع اطلاعاتی بر اساس موضوع طبقه بندی شده بودند.
۳-۱- علت پیدایش موتورهای جستجو
با وجود حجم روز افزون طراحی و راه اندازی سایت های وب مختلف، نیاز به دستیابی به مرکزی برای شناسایی این پایگاه ها برای استفاده بهتر و بیشتر کاربران وب، امر مهمی به شمار آمد. از آنجا که سایت ها و مطالبی که در وب منتشر می شوند، توسط هیچ مرکز رسمی بین المللی مسئول در اینترنت اعلام نمی شود تنها راه پیدا کردن یک موضوع، اطلاع داشتن دقیق از آدرس آن سایت به نظر می رسد.
موتور های جستجو برای سهولت دسترسی کاربران به مطالب موجود در سایت های وب راه اندازی شده اند. در واقع بدون نیاز به موتور های جستجو قادر نخواهیم بود تا از به روز رسانی های سایت های وب اطلاع کسب کنیم و نیازهای تحقیقاتی و آموزشی و تجاری و خبری و … خود را پوشش دهیم. مهمترین توانایی موتورهای جستجو جذب مخاطبان واقعی سایت است. مخاطبان وبگرد و سرگردان معمولا ارزش چندانی ندارند.
۴-۱- موتور جستجو چیست؟
جویشگر یا موتور جستجو (به انگلیسی: Search Engine)، در فرهنگ رایانه، به طور عمومی به برنامه‌ای گفته می‌شود که کلمات کلیدی را در یک سند یا بانک اطلاعاتی جستجو می‌کند. در اینترنت به برنامه‌ای گفته می‌شود که کلمات کلیدی موجود در فایل‌ها و سندهای وب جهانی، گروه‌های خبری، منوهای گوفر و آرشیوهای FTP را جستجو می‌کند.
برخی از جویشگرها برای تنها یک وب‌گاه(پایگاه وب) اینترنت به کار برده می‌شوند و در اصل جویشگری اختصاصی آن وب‌گاه هستند و تنها محتویات همان وب‌گاه را جستجو می‌کنند.
برخی دیگر نیز ممکن است با استفاده از SPIDERها محتویات وب‌گاه‌های زیادی را پیمایش کرده و چکیده‌ای از آن را در یک پایگاه اطلاعاتی به شکل شاخص‌گذاری‌شده نگهداری می‌کنند. کاربران سپس می‌توانند با جستجو کردن در این پایگاه داده به پایگاه وبی که اطلاعات موردنظر آن‌ها را در خود دارد پی ببرند.
۵-۱- معرفی انواع جستجوگرها
قبل از اینکه به تکنیکهای SEO بپردازیم لازم است که یک شناخت کلی از یک جستجوگر داشته باشیم. ابتدا به برسی ساختار یکی از انواع مهم جستجوگر ها یعنی Search Engine می پردازیم.
Search Engine -1
هر موتور جستجوگر چندین بخش مرتبط به هم دارد :
۱٫ روبات نرم افزاری : تشکیل شده از دو بخش است : Spider و Crawler
Spider یا عنکبوت نوعی برنامه نرم افزاری است که وظیفه کاوش در وب و جمع آوری اطلاعات از وب و ارسال آن به موتور جستجوگر را به عهده دارد . و کراولر تعیین می کند که Spider باید چه کارهایی انجام دهد. کار Spider به این صورت است که طبق دستور Crawler به یک صفحه می رود اطلاعات آن صفحه را از رویSource صفحه خوانده .و به Search Engine ارسال می کند سپس باز هم با دستور Crawler لینک هایی که در آن صفحه وجود دارند را دنبال می کند .در صفحه های مقصد باز هم همین عمل را تکرار می کند . به این ترتیب Spider با دنبال کردن لینک ها )تارهای شبکه وب( مانند یک عنکبوت در شبکه تار عنکبوتی وب حرکت می کند و اطلاعات جدید را جمع آوری می کند . مجموعه روبات نرم افزاری وظیفه بایگانی کردن وب را به عهده دارد .
۲٫ بایگانی : این قسمت شامل بخش تجزیه و تحلیل گر (Indexer) وبخش پایگاه داده
(Database) است.
Indexer : اطلاعاتی را که روبات نرم افزاری جمع آوری میکند در اختیار این بخش قرار میدهد. Indexer اطلاعات ارسالی را تجزیه و تحلیل می کند. به عبارت دیگر اطلاعات را سازماندهی می کند. به عنوان مثال در یک سند چند کلمه وجود دارد، کلمات کلیدی در کجای متن هستند، نسبت کلمات کلیدی به کل متن چند است، تصاویر در کجای صفحه هستند و به طور کلی همه پارامترهایی را که به جستجوگر، در تعیین رتبه سند کمک میکنند در این مرحله بدست میایند. این پارامترها در Indexer به یک مقیاس عددی تبدیل می شوند تا سیستم رتبه بندی بتواند الگوریتم های خاص ویژه و فوق محرمانه موتور جستجوگر را که آنها هم محرمانه هستند اعمال کند و در نهایت رتبه هر سایت مشخص می شود.
Indexer سپس اطلاعات صفحه و پارامترها را در اختیار پایگاه داده جستجوگر قرار می دهد. با توجه به اینکه هر جستجوگر نوعی بایگانی کننده وب به شمار می رود، پس باید پایگاه داده عظیمی برای بایگانی وب داشته باشد. علاوه بر این یک جستجوگر باید الگوریتم های خاصی برای جستجو در پایگاه داده خودش داشته باشد تا در کمترین زمان اسناد مورد نظر را بر اساس سوالات کاربر ارائه دهد.
علاوه بر این برای بالا بردن سرعت جستجو در پایگاه داده، اطلاعات گروه بندی و کدگذاری می شوند تا دسترسی به آنها آسانتر شود. این مرحله ضعف عمده جستجوگرها بشمار می رود چون در صورت وجود ابهام در سوال کاربر و گروه بندی های کلی نتایج بسیار وحشتناکی ببار می آورد . یکی از تفاوت های عمده موتورهای جستجوگر در حجم پایگاه داده آنها و همینطور نحوه سازماندهی اطلاعات و جستجو در پایگاه داده است.
هر موتور جستجوگر فقط نتایجی را به کاربر ارائه می دهد که در پایگاه داده اش وجود دارند، به عبارت بهتر عمل جستجو فقط در پایگاه داده جستجوگر انجام می شود. پس، پیش از مراجعه کاربر، جستجوگر باید پایگاه داده خود را آماده کند.
۳٫ سیستم رتبه بندی Ranker : این مرحله تنها مرحله ای است که بعد از وارد کردن
کلمات کلیدی توسط کاربر انجام می شود. یعنی قبل از عمل جست و جو مراحل قبل باید به پایان رسیده باشند؛ Spider اطلاعات را ارسال کرده، در جستجوگر اطلاعات تجزیه تحلیل و ذخیره شده اند و پایگاه داده جستجوگر آماده شده است و سیستم آماده پاسخگویی می شود.
البته کار روبات نرم افزاری هیچگاه تمام نمی شود و دائما در حال پرسه زنی و جمع آوری اطلاعات از وب است. بعد از اینکه کاربر کلمات کلیدی خود را وارد کرد، این کلمات در بانک اطلاعاتی جستجو می شوند و نتایج مرتبط بدست می آید. اما هنوز یک مرحله باقی مانده است، یعنی چگونگی ارائه این نتایج به کاربر. اگر نتایج جستجو کم باشد مشکل چندانی پیش نمی آید و نتایج در یک صفحه به کاربر ارائه می شوند. اما در صورتی که صفحات زیادی پیدا شود مثلا چند هزار صفحه، در این صورت، تصمیم گیری در مورد اینکه کدام صفحات در رتبه های بالا بویژه بین ده رتبه اول قرار بگیرند بسیار مهم است.
سیستم رتبه بندی این وظیفه را به عهده دارد. این سیستم با اعمال یکسری الگوریتم های ویژه و خاص و البته محرمانه، روی پارامترهای سندهای مختلف، به هر صفحه یک رتبه اختصاص می دهد و در نهایت صفحات در خروجی به ترتیب از بیشترین تا کمترین ارتباط مرتب می شوند.
مهمترین تفاوت موتورجستجوگرهای مختلف، تفاوت در الگوریتم های سیستم رتبه بندی آنها است. همین موضوع باعث می شود که یک کلیدواژه در چند جستجوگر مختلف، نتایج متفاوتی داشته باشد.
هدف از بهینه سازی سایت این است که پارامترهای مورد توجه جستجوگر که در صفحات سایت وجود دارند را طوری تنظیم و بهینه کنیم که در سیستم رتبه بندی و بعد از اعمال الگوریتم ها روی آنها، رتبه مناسبی به سایت داده شود.
نکته قابل توجه این است که هیچکدام از این پارامترها و الگوریتم ها شناخته شده و قطعی نیست و در موتورهای مختلف، متفاوت است. و در طول فرایندهای بهبود رتبه، از روی تجربه و مقایسه نتایج مختلف حدس زده می شوند.
مهمترین ویژگی این نوع جستجوگرها، وجود روبات نرم افزاری است که هیچگاه از فعالیت نمی ایستد و همواره اطلاعات جدید وب را جمع آوری می کند یا اطلاعات قدیمی را به روز می کند. که این امر به روز بودن نتایج ارائه شده را در پی دارد.
مهمترین جستجوگر در این دوره Google است.
سایر جستجوگرهای مهم عبارتند از :
Fast (All the web)
Altavista
MSN
Teoma
Info Seek
Nurthern Light
Directory -2 :
دایرکتوری یا فهرست، اطلاعات وب را به صورت موضوعی طبقه بندی می کند؛ به این صورت که کاربرازکل اطلاعات به قسمت های جزئی وتخصصی می رسد. درواقع کاربردر هر مرحله یک فهرست را انتخاب می کند و از آن فهرست یک زیرفهرست و به همین ترتیب آنقدر ادامه می دهد تا به نتیجه دلخواه برسد. به عنوان مثال اگر شما به دنبال تاریخچه یک تیم فوتبال باشید، به جای وارد کردن کلمات مرتبط در موتور جستجوگر، از دایرکتوری شاخه ورزشی را انتخاب می کنید سپس، زیرشاخه فوتبال و زیر شاخه تاریخ تیم های فوتبال را انتخاب می کنید که در این زیرشاخه ممکن است اطلاعات مورد نظر شما وجود داشته باشد.
ساختار دایرکتوری ها به این ترتیب است که هر دایرکتوری چندین ویراستار دارد، هر سایت برای قرار گرفتن در دایرکتوری باید ضمن معرفی سایت و انتخاب گروه و زیر گروه مناسب، خود رابه دایرکتوری معرفی کند. بعد از آن ویراستارهای دایرکتوری سایت را از نظر تناسب محتوا با گروه انتخابی و سایر قوانین برسی می کنند. در صورت پذیرفته شدن، سایت مورد نظر در دایرکتوری به ثبت می رسد. در نتیجه این نوع جستجوگرها نیازی به روبات نرم افزاری ندارند و از آن استفاده نمی کنند. بنابراین تا زمانیکه یک سایت خود را به دایرکتوری معرفی نکند از دید آن پنهان است.
در فرایند بهینه سازی قرار گرفتن در دایرکتوری های بزرگ یک مرحله مهم و از اولین مراحل شروع ثبت در موتورهای جستجوگر است.
مهمترین دایرکتوری ها عبارتند از :
Yahoo
Internet Public Library
Dmoz
Look Smart
Galaxy


دانلود با لینک مستقیم


پایان نامه فاکتورهای ارتقای رده بندی سایت در موتورهای جستجو با پاورپوینت

دانلود مقاله آناتومی یک موتور جستجو وب فوق متنی در مقیاس وسیع

اختصاصی از فی توو دانلود مقاله آناتومی یک موتور جستجو وب فوق متنی در مقیاس وسیع دانلود با لینک مستقیم و پر سرعت .

 

 

 

 

خلاصه:
در این بخش، به گوگل خواهم پرداخت، یک نمونة اصلی از یک موتور جستجوی در مقیاس وسیع که استفاده وسیعی از ساختار اراده شده در فوق متنی می کند. گوگل برای جستجو و یافتن (Crawl) و شاخص بندی وب به طور مؤثر و تولید نتایج هرچه رضایت بخش تر نسبت به سیستم های موجود طراحی شده است. این نمونه اصلی با پایگاه داده ای متشکل متن و فوق پیوند کامل 24 میلیون صفحه در http://google.standard.edi/ موجود می باشد. مهندسی یک موتور جستجو یک وظیفة چالش آور است. موتورهای جستجو دهها تا صدها میلیون صفحه وب متشکل از تعداد قابل ملاحظه ای موضوعهای متفاوت را شاخص بندی می کنند و پاسخ گوی دهها میلیون پرس و جو به صورت روزانه هستند. بر خلاف اهمیت بالای موتورهای جستجوی برروی وب تحقیقات آکادمیک بسیار اندکی برروی آنها صورت گرفته است (در کشور عزیز ما دقیقاً هیچ مطالعه و تحقیقی صورت نگرفته است). علاوه بر این به دلیل سرعت پیشرفت تکنولوژی وب، امروزه ساخت یک موتور جستجو مسبت به سه سال پیش بسیار متفاوت است. این بخش به بررسی و توصیف عمقی این موتور جستجوی وب در مقیاس وسیع می پردازد. جدای از مشکلات تغییر مقیاس تکنیکهای جستجوی قدیمی داده با این وسعت، چالشهای تکنیکی جدیدی در زمینه استفاده از اطلاعات اضافی ارائه شده در فوق متن برای تولید نتایج جستجوی بوجود آمده است. این بخش به این که چگونه می توان یک سیستم در مقیاس وسیع عملی که بتواند اطلاعات اضافی ارائه شده در فقو متن را استخراج کند را تولید کرد، پاسخ خواهد گفت. همچنین ما به این مشکل که چگونه می توان با مجموعه های فوق متن کنترل نشده (هر کسی می تواند هر چه خواست بنیسد) کنار آمد، نیز دقت خواهیم کرد.
1. معرفی
وب چالشهای جدیدی برای بازیابی اطلاعات ایجاد می کند. حجم اطلاعات موجود برروی وب به سرعت در حال افزایش است و به همان نسبت تعداد کاربران جدید که در جستجوی وب بی تجربه هستند افزایش می یابد. مردمی که احتمالاً وب را از طریق گراف پیوند آن مرور می کنند، اغلب کار خود را با شاخصهای ذخیره شده با کیفیت بالای انسانی مانند یاهو! یا موتورهای جستجو شروع می کنند. لیتهاس ذخیره و نگهداری شده توسط انسانی موضوعهای معروف را به طور موثری پوشش می دهند اما شخصی بودن، گران و پرهزینه بودن برای ساخت و نگهداری، کندی در پیشرفت و ناتوانی در پوشش موضوعهای مبهم و پیچیده از عیبتهای عمده آنها محسوب می شود. موتورهای جستجو بر پایة هم خوانی کلمات کلیدی معمولاً نتیج را با کیفیت بسیار پایین برمی گرداند. برای بهتر شدن شرایط، بعضی شرکتهای تبلیغاتای تلاش وسیعی برای بدست آوردن نظر مردم از طریق گمراه کردن موتورهای جستجوی اتوماتیک می کنند. اقایان سرگی برین و لاورنس پیج موتور جستجوی در مقیاس وسیعی ساخته اند که به تعداد زیادی از مشکلات سیستم های موجود پرداخته است. و آن استفاده وسیعی از این ساختمام ارائه شده در فوق متن می کند به منظور فراهم کردن نتایج جستجوی با کیفیت بالاتر، اسیم این سیستم، گوگل، انتخاب شده است. زیرا گوگل تلفظ معمول googol یا 10100 است و بسیار مناسب هدف ما برای ساختن یک موتور جستجوی بسیار در مقیاس وسیع است.
1.1 موتورهای جستجوی وب – گسترش یافتن: 1994-2001
تکنولوژی موتورهای جستجو باید به میزان زیادی تغییر پیدا می کرد تا بتواند هماهنگی خود را با گسترش وب حفظ کند. در 1994، یکی از اولین موتورهای جستجوی وب یعمی کرم وب گسترة جهانی (WWWW) شاخصی از000/110 صفحه وب و اسناد در دسترس وب داشت. از نوامبر 1998 موتورهای جستجوی برتر ادعای شاخص بندی از 2 میلیون (WebCrawler) تا 100 میلیون (از (Search Engine Watch صفحه وب و سند را داشتند. قابل پیش بینی است که تا سال 2001 یک شاخص جامع از وب شامل بیش از دو میلیارد سند باشد. در همان زمان تعداد پرس و جوهایی که موتورهای جستجو اداره می کنند به طور شگفت آوری افزایش می یابد. در ماه مارس و آوریل 1994، کرم وب گستره جهانی (wwww) به طور روزانه حدوداً 1500 پرس و جو را دریافت می کرد. در ماه نوامبر 1998، آلتاویستا (Altavista) اظهار داشت که روزانه حدود 20 میلیون پرس و جو را اداره می کند. با افزایش تعداد کاربران وب و سیستمهای اتوماتیک که از موتورهای جستجو پرس و جو می کنند به نظر می رسد که تا سال 2001 موتورهای جستجو صدها میلیون پرس و جو را اداره خواهند کرد. هدف سیستم گوگل توجه به بسیاری از مشکلات کیفیتی و مقیاس پذیری است که با عرضه تکنولوژی موتورهای جستجوی اینترنتی به میزان زیادی گسترش یافته اند.
1.2.1 گوگل: تغییر دادن وب
این موتور جستجوایی که در سطح وب امروز باشد چالشهای بسیاری را پدید می آورد. تکنولوژی جستجو و یافتن سریع برای جمع آوری و به روز رسانی سندهای وب لازمی می باشد. فضای ذخیره سازی بهید به طور کارآمدی برای ذخیره شاخصها و به طور اختیاری خود سندها بکار گرفته شود. سیستم شاخص بندی باید صدها گیگا بایت داده را به طور کارآمد پردازش کند. پرس و جحوها باید به سرعت اداره شوند (با نرح صدها تا هزاران پرس و جو در ثانیه).
همان گونه که وب گسترش می یابد این وظایف نیز به طور صعودی مشکل می شوند. اگرچه عملکرد سخت افزار و هزینه ها به طور چشمگیری بهبود یافته اند و تا حدی از این سختی را تعدیل کرده اند. با این وجود تعدادی استثنای قابل اشاره نیز مانند زمان استوانه یابی دیسک و قابلیت ادامه کار در شرایط غیرمنتظره سیستم عامل وجود دارند. در طراحی گوگل هر دو مسئلهع گسترش وب و تغییرات تکنولوژیک در نظر گرفته شده اند. گ.گل برای تغییر مقیاس دادن مجموعه داده ها به خوبی طراحی شده است و از فضای ذخیره سازی به طور مؤثری استفاده می کند. ساختمان داده های آن برای دسترسی سریع بهینه سازی شده اند (به بخش 4.2 نگاه کنید). علاوه بر این، هزینه شاخص بندی و ذخیره متن یا HTML نهایتاً بستگی نمسبی به میزان در دسترسی آنها دارد و این بر تغییر مقیاس منتاسب برای سیستم های متمرکز شده مانند گوگل تاثیرگذار است.
.3.1 اهداف طراحی
.1.3.1 کیفیت جستجوی بهینه شده
هدف اصلی در طراحی گوگل بهینه کردنم موتورهای جستجوی وب است. در سال 1994، بعضی از مردم تصور می کردند یک شاخص جستجوی کامل امکان یافتن هر چیزی را میسر می سازد. بر طبق مقالة بهترینهای وب 1994 – پیمایشگرها و «بهترین سرویس پیمایشی باید امکان یافتن تقریباً هر چیزی را به آسانی فراهم کند (هنگامی که تمام داده ها وارد شدند)». اگرچه وب 1999 کاملاً متفاوت است. هر کسی که اخیراً از یک موتور جستجو استفاده کرده باشد به سادگی در می یابد که کامل بودن شاخص تنها عامل مؤثر بر کیفیت نتایج جستجو نمی باشد. «نتایج آشغال» اغلب تمام نتایج مورد علاقه کاربر را خراب می کنند. در حقیقت در نوامبر 1999، تنها یکی از چهار مکوتور تجاری برتر نتایج را خودش می یابد (در پاسخ در ده نتیجه برتر، صفحه جستجو شده خودش را برمی رگداند). یکی از دلایل اصلی این مشکل این است که تعداد سندهای موجود در شاخصها به دلایل روشنی افزایش پیدا کرده اند اما توانایی کاربر بریا یافتن و نگاه کردن اسناد پیشرفت نکرده است. مردم هنوز خواستار نتیجه اول جستجو هستند. به همین دلیل، همان طور کهئ اندازة مجموعه گسترش می یابد، به ابزارهایی که دقت بسیار بالایی دارند نیاز بیشتری پیدا می شود (تعداد اسناد مربوط و مناسب برگردانده شده، در بین ده نتیجه برتر می آید). در واقع، گوگل می خواهد مفهوم «مناسب» فقط شامل بهترین اسناد باشد درحالیکه ممکن است، ده ها هزار سند تقیرباً وجود داشته باشد. خوش بینی های جدیدی در زمینه بهبود عملکرد موتورهای جستجو و سایر برنامه های اجرایی با استفاده بیشتر از اطلاعات فوق متنی بوجود آمده است
[Kleinberg 98]. علی الخصوص، ساختمان پیوندها [Page 98] و نوشته پیوندها اطلاعات زیادی برای قضاوت مناسب و فیلترینگ کیفیت فراهم می کند. گوگل از هر دوی ساختمان پیوند و متن انکر استفاده می کند.
.2.3.1 تحقیقات موتور جستجوی آکادمیک
جدای از گسترش بسیار زیاد، وب به طور افزایشی در طول زمان حالت تجاری به خود گرفته است، در سال 1993، %5/1 از سرویس دهندگان وب بر دامنه .com قرار داشتند. این مقدار در سال 1998 به %60 رسید. در همان زمان، موتورهای جستجو از حوزة آکادمیک به تجاری کوچ کردند. تا امروز اغلب پیشرفتهای موتورهای جستجو در شرکتهایی صورت می گیرد که حداقل میزان انتشار جزئیات را دارند. این باعث می شود تکنولوژی موتور جستجو تا حد زیادی مثل جادوی سیاه مخفی باقی بماند و گرایش تبلیغاتی پیدا کند. با گکوگل، سعی شده است تا پیشرفت و فهم بیشتری در قلمرو آکادمیک صورت گیرد.
یکی دیگر از اهداف طراحی ساخت سیستمهایی بود که تعداد قابل قبولی از مردم می توانند استفاده کنند. قابلیت کاربری در طراحی بسیار مهم بوده است زیرا بنظر می آید که اغلب تحقیقات جالب شامل تأثیر استفاده گسترده از سیستمهای مدرن وب در دسترس هستند می باشد. برای مثال، هر روز دهها میلیون جستجو اجرا می شوند. اگرچه، بدست آوردن این داده ها مشکل است، بیشتر به این دلیل که با توجه به جوانب اقتصادی این داده ها ارزشمند هستند.
هدف نهایی طراحی گوگل ساخت یک معماری که قابلیت پشتیبانی از فعالیتهای تحقیق نوظهور برردی داده های در مقیاس وسیع وب را داشته بوده است. برای پشتیبانی از استانداردهای تحقیقاتی نوول، گ.گل تمام اسناد فعلی را که جستجو می کند و می یابد به صورن فشرده ذخیره می کند. یکی از اهداف اصلی طراحی گوگل بوجود آوردن محیطی بود تا سایر محققات بتوانند به سرعت وارد شده، قسمت بزرگی از وب را پردازش کرئه و نتایج جالب توجهی را تولید کنند که در غیر این صورت تولدی آنها غیر ممکن باشد. در مدت زمان کوتاهی سیستم به جایی رسید که تعداد زیادی مقاله و تحقیق با استفاده از پایگاه داده گ.گل ایجاد شده بودند و بسیاری دیگر، در دست اقدام هستند. هدف دیگر بوجود آوردن یک محیط لابراتوار مانند بود که محققان و حتی دانشجویان بتوانند تجربیات جالب و پیشنهادات مفیدی برروی داده های وب در مقیاس وسیع گوگل داشته باشند.
2. ویژگیهای سیستم
موتور جستجوی گوگل دو ویژگی مهم دارد که به تولید نتایج با وضوح و دقت بالا کمک می کند. اول، گوگل از ساختار پیوند وب برای محاسبه رتبه بندی کیفیت برای هر صفحه وب استفاده می کند. این رتبه بندی، رتبه صفحه نامیده می شود. دوم، گوگل از پیوند برای بهبود نتایج جستجو بهره می گیرد.
1.2- رتبه صفحه: نظم بخشیدن به وب
گراف فراخوانی (پیوند) وب یک منبع بسیار مهم است که توسط موتورهای جستجوی وب کنونی بی استفاده مانده است. گوگل نقشه هایی شامل بیش از یک میلیارد از این فقو پیوندها که نمونه ای چشمگیر از کل هسته را بوجود آورده است. این نقشه ها اجازه محاسبه سریع «رتبه صفحه» یک صفحه وب را می دهند، یک معیار عینی که اهمیت اشاره به آن برابر با تصویر ذهنی مردم از اهمیت است. بخاطر این تطابق، رتبه یک صفحه راه عالی برای اولویت دادن به نتایج جستجوهای کلمه کلیدی در وب. برای اغلب موضوعهای معروف یک نوشته ساده متناظر با جستجحو است به این معنی که محدود به تیترهای صفحات باشد یعنی زمانی که نتایج جتوسط رتبه بندی صفحه اولویت بندی می شوند به طور قابل تحسینی اجرا می شوند. برای جستجوهای کاملاً متنی نیز در سیستم اصلی گوگل رتبه بندی صفحه کمک قابل ملاحظه ای می کند.
1.2.2. توصیف محاسبه رتبه صفحه
منابع نوشته آکادمیک در وب عمدتاً از طریق شمارش نوشته ها یا پیوندهای بازگشتی به یک صفحه خاص به کار گرفته شده اند. این کار تقریبی از اهمیت یا کیفیت صفحه به دست می دهد. رتبه بندی صفحه این مفهوم را از طریق نرمال سازی بوسیله تعداد پیوندها در یک صفحه و نه شمارش پیوندها به طور مساوی در تمام صفحات، گسترش می دهد، رتبه بندی صفحه به صورت زیر تعریف می شود:
در نظر بگیرید که صفحات TN…T1 به صفحه a اشاره می کند (یعنی منبع هستند). پارامتر d یک گامل محدود ساز است که می تواند بین 0 تا 1 تنظیم شود و اغلب d با مقدار 0.85 تنظیم می شود. توضیحات بیشتر در مورد d در بخش بعید اارئه می شود. بنابراین C(A) به عنوان تعداد صفحاتی که از صفحه A خارج می شوند، تعریف می شود. رتبه صفحه A به صورت زیر داده می شود.
RR (A)=)1-d)+d(PR(T1)/C(T1)+…+PR(Tn)/C(Tn))
توجه کنید که رتبه های صفحه یک توضیح احتمالی برروی صفحات می دهد، بنابراین مجموع رتبه های تمام صفحات وب یک (1) خواهد بود.
رتبه صفحه یا PR(a) می تواند بوسیلة یک الگوریتم تکرار ساده محاسبه شود و با بردار خاص اصلی از ماتریس پیوند نرمال شده از وب تطابق داده شود. بنابراین، رتبه بندی صفحه 26 میلیون صفحه وب می تواند در کمتر از چند ساعت برروی یک ایستگاه کاری متوسط محاسبه شود. بسیاری جزئیات دیگری هستند که از محدوده این مقاله خارج است.
2.1.2. توجیه شهودی
رتبه صفحه می تواند به عنوان یک مدل از رفتار عملکرد کاربر فرض شود. فرض می کنیم که یه «مرورگر تصادفی» وجود دارد چکه یک صفحه به طور تصادفی به او داده می شود و او برروی پیوندها کلیک می کند و هیچگاه دکمه (BACK) را نمی زند اما سرانجام خسته می شود و از یک صفحه تصادفی دیگر کار خود را ادامه می دهد. احتمال اینکه این مرورگر تصادفی یک صفحه را ملاقات کند رتبه آن صفحه می باشد و d یعنی عامل محدودساز احتمال این است که آن «مرورگر تصادفی» از هر نسخهع خسته شود و تقاضای یک صفحه تصادفی دیگر بکند. تفاوت مهم این است که عامل محدودساز d را تنها یک صفحه، یا گروهی از صفحات اضافه کنیم. این کار امکان شخصی سازی را ایجاد می کند و تقریباً گمراه کردن عمدی سیستم به منظور بدست آوردن یک رتبه بالاتر را غیرممکن می سازد. گوگل انشعابات متعدد دیگری برای رتبه بندی صفحه دارد که از محدوده این نوشته خارج است.
توجیه شهودی دیگر این است که یک صفحه می توان یک رتبه صفحه بالا داشته باشد اگر صفحات زیادی به آن اشاره کنند یا صفحاتی وجود دارند که به آن اشاره می کنند و خود رتبه صفحه بالایی دارند. به ضوح، صفحاتی که به خوبی از جاهای محتلفی از وب تکرار می شوند ارزش نگاه کردن دارند. همچنین، صفحاتی که ممکن است یک احضار از طرف جایی مانند صفحه خانگی یاهو! داشته باشند عموماً ارزش نگاه کردن دارند. اگر یک صفحه کیفیت بالایی نداشته باشد یا یک پیوند شکسته شده باشد به احتمال زیاد صفحه خانگی یاهو! به آن پیوند نمی شود. ضمناً رتبه بندی صفحه هر دوی این حالات و حالات دیگر را با وزن دهی تبلیغی به طور بازگشتی از طریق ساختار پیوند وب انجام می دهد.
.2.2 متن انکر (Anchor)
در موتور جستجوی گوگل با نوشتة پوندها به شیوه های خاصی برخورد می شود. اغلب موتورهای جستجو نوشته یک پویند را به صفحه ای که پیوند در آن است مربوط می سازند. گ.گل علاوه بر این نوشته پیوند را به صفحه ای که به آن اشاره می کند نمیز مربوط می سازد. این کار منافع زیادی دارد. اول، انکرها اغلب توصیف دقیق تری از صفحات وب نسبت به خود صفحات ارائه می دهند. دوم، انکرها ممکن است برای سندهایی که نمی توانند توسط موتورهای جستجوی بر پایه متن شاخص بندی شوند وجود داشته باشندذ. مانند عکسها، برنامه ها، و پایگاه ها داده. این کار در حقیقت امکان بازگرداندن صفحاتی را که عمل جستجو و دانلود (Crawl) برروی آنها صورت نگرفته است را می دهد. توجه کنید که صفحاتی که عمل جستجو و دانلود برروی آنها صورت نگرفته است می توانند ایجاد مشکل کنند از آنجا که آنها هیچ گاه برای صحت و اعتبار منطقی قبل از برگردانده شدن به کاربر چک نمی شود. در این حالت موتور جستجو حتی می تواند صفحه ای را که اصلاً وجود ندارد اما فوق پیوندها به آن اشاره می کنند بازگرداند. اگرچه امکان دسته بندی نتایج وجوود دارد درنتیجه این مشکل خاص به ندرت اتفاق می افند.
ایده متن انکر تبلیغاتی به صفحه ای که به آن باز می گرئئ توسط کرم وب گسترده جهانی (WWWW) تحقق پیدا کرد. زیرا این متن به جستجوی اطلاعات غیرمتنی و گسترش دامنه جستجو با سندهای دانلودی کمتر کمک می کند. گوگل به این دلیل از انکر تبلیغاتی استفاده می کند که متن انکر می تواند در فراهم کردن کیفیت بهتر نتایج کمک کند. استفاده مفید از متن انکه به دلیل حجم بالای که باید پردازش شود از نظر تکنیکی مشکل است. در مجموعه جستوجو و یافته شده حال حاضر گوگل که شامل 240 میلیون صفحه است بیش از دو و نیم میلیارد انکر شاخص بندی شده وجود دارد.

 

 

فرمت این مقاله به صورت Word و با قابلیت ویرایش میباشد

تعداد صفحات این مقاله   31 صفحه

پس از پرداخت ، میتوانید مقاله را به صورت انلاین دانلود کنید

 

 


دانلود با لینک مستقیم


دانلود مقاله آناتومی یک موتور جستجو وب فوق متنی در مقیاس وسیع

دانلود مقاله بهینه سازی موتور جستجو

اختصاصی از فی توو دانلود مقاله بهینه سازی موتور جستجو دانلود با لینک مستقیم و پر سرعت .

دانلود مقاله بهینه سازی موتور جستجو


دانلود مقاله بهینه سازی موتور جستجو

بهینه سازی موتور جستجو

بهتر کردن رتبه بندی شما در موتور های جستجو

مقاله ای مفید با قیمت مناسب

 

 

لینک پرداخت و دانلود *پایین مطلب* 

فرمت فایل:Word (قابل ویرایش و آماده پرینت)

تعداد صفحه:30

چکیده :

این گزارش رسمی بهینه سازی موتور جستجو را مورد بحث قرار میدهد. با درک کردن روندهایی در فن آوری و توسعه موتور جستجو, شما میتوانید از این FAQ جهت طرح کردن یک راهبرد فنی و بازار یابی استفاده کنید که میتواند رتبه- بندیتان را در موتور های جستجو بهتر کند. 1- بیش از 800 موتور جستجو وجود دارد اما 95 در صد از کاربران تنها از 3 موتور جستجو بازدید میکنند. 2- موتور –های جستجو به Yellow pages ها تبدیل میشوند.و شما پول پرداخت میکنید که جزو لیست در بیایید. 3- رابطه و کیفیت ارتباطات روش های اصلی هستند که در حال حاضر به لیست در می آیند. 4- SEO به طور ابتدایی یک راهبرد بازار یابی است و نه یک راهبرد فنی .

نویسندگان :1- آندریاس راموس برای تعدادی از شرکتهای silicon valley کار کرده است. او یکی از اولین کتابها را در مورد طراحی وب نوشت و سایتهای تجارت الکترونیک را برای سالها مدیریت کرد. او نگهدارنده وب برای شرکتی بود که برای بیش ازیک سال در ماه با بیش از یک میلیون کاربر پیشرفت کرد. آندریاس با گربه اش در palo alto زنگی میکند. 2- مشتریان stephani cota شامل تعدادی از راه انداز های silicon valley میباشند. او برای ایالت نوادا یک سیستم سرمایه گذاری برمبنای وب ساخت. او از از طریق scratch یک موتور تجارت الکترونیکی کاملی را از جمله داد وستد بی خطر کارت اعتباری درون خطی , سیاهه کردن , ابزار تاجرین , کنترل موجودی کالا , و تکمیل حمل , نوشت. Stephanie نیز در palo alto زندگی میکند. او را در سایت stephanie.com ملاقات کنید. ما وب سایتهای تجارت الکترونیک را میسازیم و مدیریت می کنیم. این شامل ابزار خودکار, پایگاه داده های متقابلاً موثر و دیگر وسایل و فن آوری ها است و بسیاری از آنهایی که خودمان توسعه داده ایم. برای کسب کردن اطلاعات بیشتر , وب سایت ما را در creativeconsultantsGroup.com مورد بازدید قرار دهید.

به روز درآوری : در ژوئن 2004 این سند گزارش رسمی به طور کاملی بازبینی و بسط یافته است. این سند در حال حاضر یک کتاب با جاد کاغذی میباشد. این کتاب تنها ارزش $19.95 را دارد. آن شامل جزئیاتی در مورد بهینه سازی موتور جستجو به علاوه فصلی در مورد Google AdWords میباشد. برای به دست آوردن آخرین نسخه سایت www.creativeconsultantsGroup.com را مورد بازدید قرار دهید.

مندرجات:

تذکر کپی رایت : SEO : بهینه سازی موتور جستجو, بهتر کردن رتبه بندیتان در موتور های جستجو به وسیله Andreas ramos –2001 . کلیه حقوق محفوظ است. این سند توسط قانون کپی رایت مورد حمایت قرار گرفته است. ممکن است این سند تا مادامی که آن بدون تغییر و دست نخورده باقی مانده باشد توسط هر کسی توزیع میگردد. این سند در سایت www.andreas.com/faq-searchengine.html وجود دارد 1- Andreas ramos و andreas@andreas.com و www.andreas.com

علامت های تجاری: کلیه نامهای تجاری شرکتها و محصولات استفاده شده در این سند نشانه های تجاری, نشان تجارتی ثبت شده یا نامهای تجارتی صاحبان مربوطه آنها میباشد و تنها به روش سنتی مورد استفاده قرار گرفته اند. که بدون تخلف عمدی از هر نوع میباشد. و چنین استفاده هایی به قصد انتقال دادن امضاء یا دیگر ارتباطات با این سند نمیباشد.

تکنیکهای SEO : نکات اصلیک 1- نکته اصلی این نیست که من دقیقاً ثبت میکنم و آن همه آنچیزی است که من نیاز به انجام دادن آن دارم. 2- موتور جستجو دقیقاً یک آیتم در راهبرد تبلیغات عمومیتان میباشد. از آنجائیکه شاخص گذاری یک سایت جدید توسط Ses 3 ماه یا بیشتر طول میکشد به زودی ممکن آنرا ارائه دهید. در روزهای شروع کردن یک وب سایت جدید , یک صفحه index.html ایجاد کنید. و کلیه کلمات کلیدی رادر آن قرار دهید. و آنرا به گوگل ارائه دهید و با دیگر سایتهایی که کنترل میکنید یک اراباط متقابل برقرار نمائید. سپس شما میتوانید در ماه بعد یا دو ماه بعد سایت را گسترش دهید.

رتبه بندی مربوطه: موتور های جستجو میخواهد که مرتبط ترین نتایج را ارائه کند طوری که کاربران بر میگردند که از آن استفاده کنند. گوگل پیوستگی ارتباط را معرفی کرد. این بر اساس یک روش شاخص گذاری آکادمیک مقالات میباشد. هر چه بیشتر مقاله ای نقل قول داشته باشد , آن مهمتر است. اگر 100 سایت با cats.com ارتباط برقرار کنند ,آن بیشتر از feline.com رتبه بندی میگردد که تنها 20 اتصال با آن دارد.

کیفیت ارتباط: آن همچنین اهمیت دارد که چه کسی با شما ارتباط دارد . یک اتصال از یک سایت اصلی ممکن است ارزش صد امتیازی داشته باشد و اتصال از یک سایت شخصی تنها ارزش یک امتیازی دارد .اگر purina.com و friskies.com به cats.com اتصال داشته باشند , آن بهتر از یک اتصال dozen حاصل از افراد در geocities اهمیت دارد. این تاثیر عمدهای بر روی راهبردهای موتور جستجو داشت. 1- قبل از ارتباط , بهینه سازی موتور جستجو برای افراد فنی یک شغل بود. آنها بر چسبهای غیر نمادین و غیره را مینوشتند.2- با یوستگی اتصال , بهینه سازی موتور جستجو به بازار یابی (فروش ) تغییر کرد . آنها اتصالاتی را که میخواهند از آنجا متصل شوند شناسایی میکنند. و سپس خارج میشوند و با آن سایتها معاملات تجاری را برقرار میکنند. آن یک موضوع علامت گذاری و بازار یابی است.

بررسی موتور های جستجوی اصلی : وب سایتهایی وجود دارد که برای هر موتور جستجو سهم بازار به روز در آمده شده را نشان میدهند. 1- نمودار فن آوری موتور جستجو که منبع خیلی خوبی است.

و...

NikoFile


دانلود با لینک مستقیم


دانلود مقاله بهینه سازی موتور جستجو

دانلود کتاب جذاب بازاریابی موتورهای جستجو برای کسب و کارهای کوچک

اختصاصی از فی توو دانلود کتاب جذاب بازاریابی موتورهای جستجو برای کسب و کارهای کوچک دانلود با لینک مستقیم و پر سرعت .

دانلود کتاب جذاب بازاریابی موتورهای جستجو برای کسب و کارهای کوچک


دانلود کتاب جذاب بازاریابی موتورهای جستجو برای کسب و کارهای کوچک

بازاریابی موتورهای جستجو )SEM(، شکلی از بازاریابی اینترنتی است که شامل فعالیت های ترویجی به منظور افزایش امکان دیده شدن وبسایت در صفحات نتایج موتورهای جستجوی از طریق بهینه سازی و تبلیغات می شود.


دانلود با لینک مستقیم


دانلود کتاب جذاب بازاریابی موتورهای جستجو برای کسب و کارهای کوچک

خوشه بندی موضوعی اسناد XML در موتورهای جستجو

اختصاصی از فی توو خوشه بندی موضوعی اسناد XML در موتورهای جستجو دانلود با لینک مستقیم و پر سرعت .

 

 

خوشه بندی موضوعی اسناد XML در موتورهای جستجو

 

تعداد صفحات: 9صفحه

نویسند‌گان:

[ حامد زجاجی ] - عضو هیئت علمی دانشگاه آزاد اسلامی واحد سبزوار
[ مهدی رواخواه ] - عضو هیئت علمی دانشگاه آزاد اسلامی واحد فریمان
[ محمد علیشاهی ] - عضو هیئت علمی دانشگاه آزاد اسلامی واحد فریمان

 

 خلاصه مقاله:

امروزه موتورهای جستجو نقش مهمی برای دسترسی به اطلاعات در فضای وب دارند. حجم زیاد نتایج باعث سردرگمی کاربران می شود. بنابراین خوشه بندی نتایج جستجو و انتخاب یک برچسب مناسب مبتنی بر محتوای هر خوشه، ضروری است. در این مقاله سعی شده است نتایجی که در جستجوی اسناد XML بدست می آیند با استفاده از داده کاوی به شکلی کارا خوشه بندی و سپس برچسب گذاری شوند. ازآنجا که عمل برچسب گذاری گام بلافصل پس از خوشه بندی می باشد اکثر روش های برچسب گذاری، منتج از الگوریتم های خوشه بندی می باشند. دراین مقاله نیز با ایجاد تغییراتی در یک الگوریتم خوشه بندی بهینه، قابلیت برچسب گذاری خوشه ها را به آن اضافه کرده ایم. الگوریتم پیشنهادی تحت عنوان CLXCLS قادر است اسناد XML را دریافت و حین انجام خوشه بندی، اطلاعات لازم برای برچسب گذاری را جمع آوری کند و در نهایت پس از برقراری ارتباط با یک پایگاه داده لغوی و تحلیل داده ها، به کمک بیشترین تکرار عناصر و مشابهت ساختاری، مناسب ترین برچسب برای هر خوشه را پیشنهاد دهد. نتایج حاصل از ارزیابی الگوریتم روی مجموعه معتبری از داده ها با استفاده از معیار کلمات پرتکرار و پیشگویانه نشان دهنده برتری الگوریتم پیشنهادی در دقت و نزدیکی برچسب های انتخاب شده نسبت به روش های موجود می باشد.


کلمات کلیدی:

اسناد XML ، خوشه بندی، برچسب گذاری

 

 

 

 


دانلود با لینک مستقیم


خوشه بندی موضوعی اسناد XML در موتورهای جستجو