۳۸۴ مطلب با موضوع «هوش مصنوعی» ثبت شده است

پیاده سازی مقاله: زمان بندی وظایف در محیط ابری با استفاده از الگوریتم ژنتیک

پیاده سازی مقاله: زمان بندی وظایف در محیط ابری با استفاده از الگوریتم ژنتیک

چکیده:

با رشد مجازی سازی در سیستم های و تکنولوژی های جالب امروزی ، رایانش ابری به عنوان بستر جدید محاسباتی ظهور کرد. هدف نهایی رایانش ابری جلب رضایت کاربران بر اساس کیفیت سرویس تضمین شده برای آنها و کسب سود برای سرویس دهنده ی رایانش ابری می باشد، بنابراین لازم است که یک الگوریتم زمان بندی به هدف دست پیدا کند. اما مدل های موجود به دلیل اینکه فقط روی افزایش کارایی سیستم کار می کنند با محیط ابر قابل تطبیق نیستند، بطوریکه اکثر روش ها زمان بندی در محاسبات کلاستری فقط در زمینه ی بهینه کردن زمان تکمیل شده کارهای دسته ای، تلاش می کنند. زمان بندهای محیط ابر باید کیفیت سرویس موردنظر کاربر را فراهم کنند تا رضایت وی جلب شود. به همین منظور در این مقاله روشی برای حل مسئله ی زمان بندی بر اساس الگوریتم ژنتیک ارائه خواهد شد. در مدل ارائه شده، زمان بند در هر چرخه ی زمان بندی تابع زمان بندی الگوریتم ژنتیک را فراخوانی می کند، این تابع مجموعه ای از کارهای زمان بندی شده را ایجاد کرده و کیفیت هر یک از مجموعه ها را بر اساس میزان تامین رضایت کاربران و دسترسی پذیری ماشین های مجازی ارزیابی می کند و این تابع تا رسیدن به زمان بندی بهینه ادامه پیدا می کند. نتایج شبیه سازی های انجام شده میزان کارایی و تاثیر بیشتر مدل ارائه شده نسبت به مدل های موجود مانند روش زمان بندی نوبت چرخشی را نشان می دهد.
  • شریف پژوه

پیاده سازی مقاله: تحلیل روش های داده کاوی در پیش بینی ریزش مشتریان مخابرات

پیاده سازی مقاله: تحلیل روش های داده کاوی در پیش بینی ریزش مشتریان مخابرات

چکیده:

امروزه عملیات داده کاوی به صورت گسترده توسط تمامی شرکت ھای مشتری محور، از جمله مخابرات استفاده می شود. مھم ترین چالش و مسیله ای که صنعت مخابرات با آن روبه رو است، ریزش مشتری است. در این مقاله به بررسی تکنیک ھای پیش بینی ریزش مشتریان در مخابرات پرداخته ایم. به این نتیجه رسیدیم که تکنیک ھای مبتنی بر درخت تصمیم گیری دقیق تر از تکنیک ھای مبتنی بر رگرسیون است. روش ھای داده کاوی مبتنی بر شبکه ھای عصبی در مقایسه با تکنیک ھای درخت تصمیم گیری، نتایج بھتری ارایه می دھند. روش ھای مبتنی بر درخت تصمیم به ویژه 0/5C و CART از نظر دقت عملکرد نتایج بھتری نسبت به برخی از تکنیک ھای داده کاوی موجود مانند رگرسیون، دارند.
  • شریف پژوه

پیاده سازی مقاله: تجزیه و تحلیل داده های بزرگ تجاری در رایانش ابری مبتنی بر آپاچی اسپارک

پیاده سازی مقاله: تجزیه و تحلیل داده های بزرگ تجاری در رایانش ابری مبتنی بر آپاچی اسپارک

چکیده:

حجم بالایی از داده های تجاری توسط برنامه های کاربردی یا در محیط وب مرتبا ایجاد می شود و نیاز است که این داده ها مورد تجزیه و تحلیل قرار گرفته تا دانش نهفته درون آنها آشکار شود. روش های یادگیری ماشین و داده کاوی از جمله تکنیک های مهم در تحلیل داده های تجاری است اما چالش آنها در این است که توانایی آنها برای پردازش داده های بزرگ اندک است و نیاز است از روش های توزیع شده آنها استفاده شود. در این پژوهش یک روش مبتنی بر پردازش توزیع شده توسط فناوری آپاچی اسپارک ارائه شده تا روش های داده کاوی و یادگیری ماشین مانند تکنیک های درخت تصمیم گیری، جنگل تصادفی و رگرسیون در این بستر اجرایی شده و تحلیل داده های تجاری در زمان واقعی انجام شود. برای پیاده سازی روش پیشنهادی از داده های مرتبط با مشتریان در کاربردهای تجاری و محیط پردازش ابری آپاچی اسپارک استفاده شده است. نتایج نشان می دهد از بین تکنیک های درخت تصمیم گیری، جنگل تصادفی و رگرسیون در آپاچی اسپارک و حالت غیرتوزیع شده تکنیک رگرسیون دارای حداقل خطای ممکن برای تحلیل داده های تجاری است و از طرفی جنگل تصادفی در بین تکنکی های درخت تصمیم گیری، جنگل تصادفی و رگرسیون چه در حالت توزیع شده و چه در حالت غیرتوزیع شده دارای حداقل زمان اجراء برای تحلیل داده ها است.
  • شریف پژوه

پیاده سازی مقاله: بررسی کاربرد چارچوب های تحلیل عظیم داده ها در پیش بینی زلزله

پیاده سازی مقاله: بررسی کاربرد چارچوب های تحلیل عظیم داده ها در پیش بینی زلزله

چکیده:

این مقاله به بررسی کاربرد چارچوب های عظیم داده ها از جمله آپاچی هادوپ و آپاچی اسپارک در پیش بینی زلزله پرداخته است. برای این منظور، ابتدا چارچوب های هادوپ و اسپارک، نصب و پیکربندی شده، سپس از ابزار تحلیل و داده کاوی رپیدماینر و الگوریتم ماشین بردار پشتیبان غیرخطی با تابع کرنل RBF باتوجه به داده های پژوهش جهت مدل سازی بر روی این 2 چارچوب استفاده گردید. سپس همین فرآیند بدون استفاده از چارچوب های هادوپ و اسپارک تکرار گردید. مقایسه نتایج نشان می دهد؛ در مدلی که از چارچوب های هادوپ و اسپارک بعنوان زیرساخت پردازش استفاده نشده است، زمان اجرا حدودا 4 0 برابر حالتی است که از هادوپ و اسپارک استفاده گردیده است. ولیکن درخصوص خروجی مدل در رابطه با پیش بینی بزرگای زلزله، در هر دو مدل نتایج یکسان بوده و تفاوتی وجود نداشته است.
  • شریف پژوه

پیاده سازی مقاله: پردازش موازی در داده کاوی

پیاده سازی مقاله: پردازش موازی در داده کاوی

چکیده:

با افزایش انفجار گونه داده های بزرگ در زمینه های صنعتی و علمی، برای کار بر روی این داده ها و تجزیه و تحلیل آنها، سیستم های پردازش داده های بزرگ بسیار ضروری به نظر می رسد. مپ ریدوس و اسپارک دو محدوده محاسبات خوشه ای بسیار محبوب برای تجزیه و تحلیل داده ها در مقیاس بزرگ هستند، در حال حاضر مسلما اسپارک از لحاظ ویژگی هایی مانند تحمل خطا، عملکرد بالای پردازش داده ها در حافظه و مقیاس پذیری، جزء پیشرفته ترین سیستم های محاسباتی داده های بزرگ می باشد. اسپارک یه مدل برنامه ریزی آردیدی (مجموعه داده های توزیع شده) را در اختیار شما قرار می دهد، مدل برنامه نویسی با مجموعه ای از تحول ارائه شده و اپراتورهایی که عملکرد عملیات را می توان توسط کاربران با توجه به برنامه های خود را سفارشی کنند. اسپارک در اصل به عنوان یک سیستم پردازش سریع و کلی ارائه شده است که با توجه به شرایط مختلف از زمان معرفی آن، تلاش زیادی برای انجام کارهای تحقیقاتی روی آن انجام شده است. در این مقاله ما دلایل اهمیت داده پردازی موزای را بررسی نمودیم و در نهایت دو مدل محاسباتی مپ ریدوس و اسپارک را بعنوان ابزارهای رایج و مهم دادهپردازی موازی، بررسی و در مواردی با هم مقایسه نمودیم. در این بررسی نهایتا مشخص شد، بجز عملیات مرتب سازی، اسپارک گزینه بهتری برای داده کاوی موازی است.

  • شریف پژوه

پیاده سازی مقاله: تحلیل سبد خرید مشتریان در خرید اینترنتی با استفاده از تکنیک های داده کاوی

پیاده سازی مقاله: تحلیل سبد خرید مشتریان در خرید اینترنتی با استفاده از تکنیک های داده کاوی

چکیده:

در این مقاله عملیات برخی خریدها با انتخاب تصادفی در یک سایت بازاریابی مورد بررسی قرار می گیرد.این خریدها در فضای بیکران اینترنت که مجموعه ای بسیار بزرگ از شبکه های بزرگ و کوچک به هم پیوستهاست ، انجام می گیرد . اگر به جای رفتن به محیط بیرون از خانه و خرید از فروشگاههای سنتی و مدرن ، با استفاده از اینترنت خرید خود را انجام دهید خرید اینترنتی صورت گرفته است که هزینه آن به صورت آنلاین پرداخت می شود و یا مامور پست کالا را جلوی منزل به مشتری تحویل می دهد و هزینه کالا را پس از تحویل از مشتری دریافت می کند .سبد خرید مشتری شامل کالاهایی است که مشتری از یک فروشگاه اینترنتی خریده است .یعنی ممکن است یکباره چندین کالا خریده باشد .داده کاوی مجموعه ای از روشها در فرآیند کسب دانش است که برای تشخیص الگوها و رابطه های نامعلوم در داده ها مورد استفاده قرار می گیرد . فروش بازاریاب سایت ایران سی نت به عنوان موردانجام شد .در این مقاله سعی weka مطالعه فرض شده است . فرآیند داده کاوی در این پژوهش با استفاده از نرم افزار شده تا رابطه بین خرید چند کالا بررسی شود و پیشنهاد دهیم که اگر یکی از آنها را مشتری خرید ، با استفاده از قوانین کشف شده چه کالاهای دیگری را می تواند انتخاب کند .

  • شریف پژوه

پیاده سازی مقاله: شناسایی کاربران اسپم در شبکه های اجتماعی با استفاده از الگوریتم KNN

پیاده سازی مقاله: شناسایی کاربران اسپم در شبکه های اجتماعی با استفاده از الگوریتم KNN

چکیده:

امروزه با فراگیر شدن اینترنت، استفاده از شبکه های اجتماعی نیز گسترش یافته است. هدف افراد از عضویت در اینگونه شبکه ها به اشتراک گذاشتن داده ها در زمینه های مختلف است. این شبکه ها به کاربران اجازه میدهند تا مطالب خود را در زمینه های گوناگون گسترش دهند. مشکل زمانی پیش می آید که کاربری بخواهد از این قابلیت سوءاستفاده کرده و مطالب اسپم ارسال نماید. ما در این مقاله شناسایی اینگونه کاربران را مد نظر قرار داده ایم. برای بررسی این موضوع از پایگاه داده یکی از این شبکه ها استفاده کردیم. در مرحله یادگیری، به کمک کاربران عضو، اسپمرها را شناسایی کرده و خصوصیاتی را که مرتبط با این گونه کاربران هستند، درنظر گرفته ایم. براین اساس، کاربران جدید با درنظر گرفتن خصوصیاتشان و الگوریتمknn در یکی از دسته های اسپمر یا غیراسپمر طبقه بندی می شوند. در این روش حدود 75 درصد از اسپمرها به درستی تشخیص داده شدهاند. در مرحله بعدی، دسته بندی بر اساس مطالب کاربران انجام می شود. با این روش دقت تشخیص اسپمرها افزایش یافته و به 84 درصد میرسد.

  • شریف پژوه

پیاده سازی مقاله: تشخیص احساس از روی گفتار فارسی با استفاده از ماشین بردار پشتیبان

پیاده سازی مقاله: تشخیص احساس از روی گفتار فارسی با استفاده از ماشین بردار پشتیبان

چکیده:

تشخیص خودکار احساس از روی گفتار مساله بسیار مهم، در عرصه تعامل انسان و ماشین است.قابلیت تشخیص احساس توسط کامپیوتر با دقتی همانند انسان، به منظور ایجاد رابطه طبیعی و دوستانهبین انسان و کامپیوتر، بسیار حائز اهمیت است. با وجود پیشرفتهای گسترده در حوزهً پردازشگفتار، استخراج و درک احساس پنهان در گفتار انسان، همچون خشم، شادی و جز اینها، از یکسو و تولید گفتار احساسی مناسب از سوی دیگر، یکی از چالشهای مهم برای ساخت ماشینهایهوشمند محسوب میشود. در این مقاله، یک سیستم تشخیص خودکار احساس ارائه شده است.سیستم معرفی شده، شامل دو بخش اصلی، استخراج ویژگی و آموزش مدل دسته بند می باشد.درمرحله استخراج ویژگی، ویژگیهای عروضی از جمله فرکانس گام، شدت و ویژگی های کلی ازسیگنال گفتار به ازای شش حس متفاوت خشم، تنفر، ترس، شادی، غم و خنثی استخراج شده است.پس از تشکیل بردار ویژگی، با روش دستهبند ماشین بردار پشتیبان آموزش داده شده اند. در نهایت،نتیجه محاسبات انجام شده حاکی از میانگین دقت 82/744 درصد می باشد که در مقایسه با روش های دیگر از کارایی بالاتری برخوردار است.

  • شریف پژوه

پیاده سازی مقاله: مروری بر روش های پیش بینی نقص های نرم افزاری مبتنی بر یادگیری ماشین

پیاده سازی مقاله: مروری بر روش های پیش بینی نقص های نرم افزاری مبتنی بر یادگیری ماشین

چکیده:

پیش بینی نقص نرم افزار یکی از مهمترین موارد پژوهشی در حوزه مهندسی نرم افزار می باشد. وجود نقص در سیستمنرم افزاری یک تهدید جدی برای کیفیت نرم افزار به شمار میرود و موجب عدم انطباق محصول با نیاز مشتری می شود. ازطرفی یکی از فاکتورهایی که منجر به تعداد بالای خطاهای نرم افزاری و در نتیجه تولید نرم افزاری با کیفیت پایین میشود،محدودیت منابع تضمین کیفیت می باشد. بنابراین با توجه به محدودیت منابع بهتر است ابتدا ماژول هایی که مستعد نقصهستند شناسایی شده، سپس منابع را برای رفع نقص صرف این ماژول ها کنیم. مدلهای تشخیص نقص در ماژول هاینرم افزاری تاکنون توسط محققان زیادی مورد مطالعه قرار گرفته است و این در حالی است که بسیاری از روشهای پیش بینیماژول های نقصدار هنوز در مرحله اولیه می باشند و نیازمند تحقیق بیشتر برای رسیدن به مدل های قوی هستند. دراین مقالهبه بررسی ادبیات مهندسی نرمافزار در مورد پیش بینی نقص های نرم افزاری خواهیم پرداخت. توضیحات این مقاله منعکسکننده اطلاعات اکثر مقالات چاپ شده در زمینه تحلیل و بررسی مدلهای پیش بینی نقص نرم افزاری می باشد.

  • شریف پژوه

پیاده سازی مقاله: پیشبینی بیشینه بار مصرفی در بازار برق با استفاده از سریهای زمانی

پیاده سازی مقاله: پیشبینی بیشینه بار مصرفی در بازار برق با استفاده از سریهای زمانی

چکیده:

یک سری زمانی شامل مجموعه مشاهداتی است که بر حسب زمان مرتب شده باشند،نتایجی که از تحلیل این سریها به دست می آیند دارای کاربردهای اساسی در زمینه های مختلف از جمله اقتصاد و علوم مهندسی هستند. تجزیه و تحلیل چنینمشاهداتی نیازمند روشهایی است که قسمت مهمی از علم آمار را در بر می گیرند. هدف ما در این پروژه برازش یک مدل مناسب بر روی ماکزیمم بار مصرفی پست انتقال چمران شهرستان کرمانشاه در هر روز می باشد. داده های مورد مطالعه شامل ماکزیمم بار مصرفی هر روز و در طول سال 1393 می باشد. به کمک این مدل می توانیم ماکزیمم بار مصرفی را برای آیندهپیش بینی و کنترل نماییم. پارامترهای مختلف سری زمانی با استفاده از نرم افزار MINTAB محاسبه شده است. مطالعات انجام شده بر اساس داده های یک ساله می باشد که چناچه حجم اطلاعات ورودی افزایش یابد و داده های سالهای گذشته نیز به آن اضافه شود نتایج دقیق تری بدست خواهد آمد

  • شریف پژوه

پیاده سازی مقاله: طبقه بندی زیرگروه ویروس آنفولانزا با استفاده از تکنیک های داده کاوی

پیاده سازی مقاله: طبقه بندی زیرگروه ویروس آنفولانزا با استفاده از تکنیک های داده کاوی

چکیده:

آنفولانزا یک بیماری شدیدا مسری، حاد و تب زاست که در اثر ویروس آنفولانزا ایجاد می شود ، این ویروس از سه نوع تشکیل شد ه-است: نوع B، Aو C. در طی قرن گذشته، اپیدمی های مختلفی از آنفولانزا نوع A، مرگ و میر و خسارات سنگین اقتصادی به جامعه انسانی تحمیل کرده است. آنفولانزا A بر اساس آنتی ژن های سطحی اش، هماگلوتینین و نورامینیداس تقسیم بندی میشود. تا کنون61 زیرگروه از هماگلوتینین و 9 زیرگروه از نورامینیداس شناسایی شده است. تشخیص زودهنگام و دقیق زیرگروه ویروس امری حیاتی است. کارهای معدودی در حوزه داده کاوی در این راستا، انجام شده است که غالبا روی ناحیه محدودی از دیتاست و تنها برای چند زیرگروه رایج بوده است؛ در این پژوهش، دیتاست بزرگی شامل 43533 توالی ثبت شده آنفولانزا نوعA در کتابخانهNCBI از سال 1900 تا کنون در قالب 4 گروه استفاده شده است: توالی های DNA و پروتئینی آنتی ژن هماگلوتینین، توالیهایDNA و پروتئینی آنتی ژن نورامینیداس. پس از پیش پردازش های متعدد، با استفاده از طبقه بندی جنگل تصادفی، جنگلی از طبقه-بندهای مستقل از هم، مدل دقیقی برای تشخیص زیرگروه ویروس، بدست آمد. این مدل قادر به تشخیص ویروس از تمام زیرگروه-ها، بر اساس توالی هر کدام از آنتی ژن های هماگلوتینین و نورامینیداس با تشخیص و حساسیت 99% میباشد.

  • شریف پژوه

پیاده سازی مقاله: ارائه یک الگوریتم جهت بهبود الگوریتم k-means

پیاده سازی مقاله: ارائه یک الگوریتم جهت بهبود الگوریتم k-means

چکیده:

؛k-means یکی ازمحبوب ترین روش های خوشه بندی می باشد، به این دلیل که سادگی، و سرعت آن در طبقه بندی داده های عظیم بسیار خوب است. با این حال خروجی الگوریتم k-means به انتخاب مراکز خوشه های اولیه بستگی دارد، چون به صورت تصادفی انتخاب می شود. محدودیت دیگر آن تعداد مورد نیاز خوشه ورودی است، که این نیاز به نوعی دانش شهودی در مورد مقدار مناسب k دارد. در این مقاله یک الگوریتم پیشنهاد شده بر اساس k-means که تعیین تعداد خوشه k به عنوان ورودی را نیاز ندارد پیچیدگی زمانی و کیفیت خوشه های تولید شده توسط الگوریتم پیشنهادی با الگوریتم k-means اصلی با استفاده از دو مجموعه داده مختلف، مقایسه شده است.
  • شریف پژوه

پیاده سازی مقاله: بررسی دقت و بخش بندی تصاویر پزشکی با استفاده از الگوریتم k-means

پیاده سازی مقاله: بررسی دقت و بخش بندی تصاویر پزشکی با استفاده از الگوریتم k-means

چکیده:

درباره شایعه خوشه بندی به عنوان یکی از روش های بدون ناظر و مهم در پردازش تصویر جهت قطعه بندی تصاویر مورد استفاده قرار می گیرند. در این روش به پیکسل های متعلق به دامنه تأثیر با توجه به میزان شباهت آن ها به مراکز خوشه ها به چند زیر مجموعه یا خوشه تقسیم می شوند. پرکاربردترین الگوریتم های خوشه بندی عبارتند از الگوریتم K-means و Fuzzy C-means . این مقاله به امکان سنجی قطعه بندی تصاویر پزشکی با استفاده از الگوریتم خوشه بندی K-means می پردازد.
  • شریف پژوه

پیاده سازی مقاله: پیش بینی قیمت سهام بانک صادرات با استفاده از شبکه عصبی مصنوعی

پیاده سازی مقاله: پیش بینی قیمت سهام بانک صادرات با استفاده از شبکه عصبی مصنوعی

چکیده:

امروزه سرمایه گذاری در بورس، بخش مهمی از اقتصاد جامعه را تشکیل می دهد. تغییرات قیمت سهام یکی از مهم ترین موضوعات مورد توجه هر سرمایه گذار است. به همین دلیل پیش بینی قیمت سهام برای سهامداران از اهمیت بالایی برخوردار است تا بتوانند از سرمایه گذاری خود، سود بیشتری کسب کنند. در این نوشتار سعی بر این است که به پیش بینی قیمت سهام روز بعد بانک صادرات در بورس اوراق بهادار تهران با استفاده از مدل پرسپترون چند لایه از شبکه های عصبی مصنوعی بپردازیم و سعی میکنیم مدلی را انتخاب کنیم که میانگین مجموع مربعات خطای آن (MSE) کمتر باشد. متغیرهای زیادی بر قیمت سهام تاثیرگذار هستند، اما از بین آن ها تاثیر شاخص های اقتصادی را می توان بیشتر دانست. از جمله : نرخ ارز، قیمت طلا و قیمت نفت. این شاخص ها به عنوان متغیرهای مستقل برای پیش بینی قیمت سهام درنظر گرفته می شوند. نتایج حاصل نشان می دهد شبکه با ترکیب 20-80 و معماری 1-14-4 به بهترین پاسخ همگرا می شود.
  • شریف پژوه

پیاده سازی مقاله: تشخیص حملات سایبری پیشرفته با استفاده از مدل سازی رفتاری مبتنی بر پردازش زبان طبیعی

پیاده سازی مقاله: تشخیص حملات سایبری پیشرفته با استفاده از مدل سازی رفتاری مبتنی بر پردازش زبان طبیعی

چکیده:

رشته حملات پیچیده و ماندگار نفوذ به شبکه از مراحل نامحسوس و مخفی متعددی تشکیل شده اند. یکی از دلایل ناکارآمدی سامانه های تشخیص نفوذ در برابر این حملات، استفاده از سازوکار دفاعی مبتنی بر آنالیز ترافیک شبکه ای سطح پایین است که در آن به روابط پنهان بین هشدارها توجه نمی شود. فرض ما این است که اطلاعات ساختاری پنهان در داده های ترافیکی وجود دارند و ما می خواهیم در ترافیک شبکه ای قواعدی مانند قواعد زبان تعریف کنیم و آن را برای توصیف الگوهای فعالیت های شبکه ای بدخواهانه به کار بگیریم. به این وسیله می توانیم مسئله کشف الگوهای سوء استفاده و ناهنجاری را همانند مسئله یادگیری ساختارهای نحوی و قطعات مفهومی "زبان شبکه" حل کنیم. در این مقاله برای مدل سازی در مرحله تولید دنباله ها برای اولین بار در حوزه سایبری از یک خوشه بندی جدید به عنوان خوشه بندی MD_DBSCAN که یکی از انواع بهبودیافته خوشه بندی DBSCAN است، استفاده شده است. علاوه بر این، از یک الگوریتم حریصانه با الهام از القاء گرامر در پردازش زبان طبیعی استفاده شده تا با ادغام فعالیت های سطح پایین بتوانیم فعالیت های سطح بالا را کشف کنیم و روابط بین فعالیت های سطوح مختلف را تعریف کنیم. در بخشی از الگوریتم پیشنهادی برای کشف فعالیت های سطح بالا، برای اولین بار معیار شباهت ویرایش در خوشه بندی سلسله مراتبی به معیارهای موجود در الگوریتم پایه اضافه شده است. نتایج نشان می دهد دقت تشخیص در فعالیت های سطح بالا نسبت به فعالیت های سطح پایین با توجه به نمودار ROC حدود 30 % بیشتر است. همچنین، با تنظیم بهترین حد آستانه در الگوریتم تشخیص حملات، با درنظرگرفتن معیار F1 ، برای لغات سطوح یک تا سه به ترتیب به نتایج 3/72 و 2/96 و 4/96 در پنجره پیش بینی با اندازه سه رسیده ایم که به طورکلی حدود 2/. نسبت به الگوریتم پایه بهبود نشان می دهد.
  • شریف پژوه

پیاده سازی مقاله: الگوریتم خوشه بندی اسناد بر پایه الگوریتم K-MEANS بهبود یافته

پیاده سازی مقاله: الگوریتم خوشه بندی اسناد بر پایه الگوریتم K-MEANS بهبود یافته

چکیده:

خوشه بندی یکی از مسائل مهم داده کاوی است که هدف آن گروه گروه کردن تعدادی از اشیاء به طوری است که اشیاء درون یک گروه به هم شباهت بیشتری داشته و اشیاء دو گروه مختلف نسبت به هم متفاوت باشند. در این مقاله به مسئله خوشه بندی اسناد پرداخته شده است. الگوریتم خوشه بندی به کاررفته بر اساس الگوریتم K-Means است. اعمال تغییراتی در این الگوریتم از جمله تعیین تعداد تکرار مرحله پالایش برحسب یک مقدار آستانه، اعمال تکنیک N-Gram و تکنیک های دیگر باعث افزایش درصد موفقیت الگوریتم، بیش از 12 درصد در مجموعه فارسی آزمایش شده و حدود 25 درصد در مجموعه انگلیسی آزمایش شده، شده است.

  • شریف پژوه

پیاده سازی مقاله: تشخیص امضای آفلاین با استفاده از SVM

پیاده سازی مقاله: تشخیص امضای آفلاین با استفاده از SVM

چکیده:

امروزه در بسیاری از معاملات روزمره به ویژه مالی و استفاده از چک ها و وام های بانکی و اسناد مختلف نیاز به امضا را به عنوان یکی از مهم ترین ابزارهای بیومتریک برای تایید هویت شخصی ضرورت داده است. با توجه به اینکه عوارض جانبی از امضا این است که می توانند به منظور جعل کردن اعتبار اسناد سوء استفاده قرار گیرند به همین منظور پزوهش در راه حل های کارامد برای شناخت امضا به روش آفلاین و تایید ان برای جلوگیری از جعل اسناد رو به افزایش است. سیستم شناسایی امضای آفلاین بر روی تصاویر اسکن شده از امضا کار می کند در این مقاله یک روش برای تشخیص آفلاین امضا با استفاده از طبقه بندی کننده SVM (support vector machine) جهت بازشناسی الگو ارائه شده است که به هنگام آموزش با حفظ فاصله اطمینان با اندازه قابل تنظیم مرز جدا کننده ای فرا می گیرد. برای این کار دو روش پیشنهادی معرفی می گردد. جزئیات و نتایج شبیه سازی در این مقاله مورد بحث قرار گرفته است.
  • شریف پژوه

پیاده سازی مقاله: ارائه یک سیستم خبره فازی جهت مدیریت ریسک پروژه ها

پیاده سازی مقاله: ارائه یک سیستم خبره فازی جهت مدیریت ریسک پروژه ها

چکیده:

امروزه عدم اطمینان در پروژه ها، سازمانها را با چالش های متعددی مواجه ساخته است. همچنین بروز خطا در تصمیم گیری، زیانهای جبران ناپذیری را به بار می آورد. لذا روشهای قدیمی و غیر علمی جوابگوی نیاز سازمانها نمی باشد. مدیریت ریسک رویکردی نوین در راستای ارتقای اثر بخشی سازمانها بوده که با توجه به ماهیت نامطمئن پروژه ها و لزوم صرف بهینه منابع پروژه ها از اهمیت انکار ناپذیری برخوردار است. مدیریت ریسک پروژه به دلیل ماهیت کیفی متغیرها، زمینه ای مناسب جهت استفاده از کارکردهای تئوری فازی می باشد. در این مقاله سیستم خبره فازی به عنوان ابزاری کارا در حوزه تحلیل ریسک پروژه معرفی می گردد. در ادامه سیستم خبره فازی طراحی شده جهت ارزیابی و الویت بندی ریسکهای پروژه، به طور عملی مورد اعتبار سنجی قرار می گیرد.
  • شریف پژوه

پیاده سازی مقاله: تشخیص افراد ریسکی در صنعت بیمه با استفاده از درخت تصمیم Hoeffding

پیاده سازی مقاله: تشخیص افراد ریسکی در صنعت بیمه با استفاده از درخت تصمیم Hoeffding

چکیده:

با رشد روزافزون کامپیوتر، مقادیر زیادی از داده ها به وسیله ی سیستم های مختلف به وجود می آیند. در حال حاضر مسئله ی پیش روی سازمان ها، دیگر جمع آوری داده ها نیست، بلکه توانایی استخراج اطلاعات مفید از میان آنهاست. همانند دیگر بخش های اقتصادی، شناخت و جذب مشتریان کم ریسک و سودآور برای صنعت بیمه نیز دارای اهمیت است. اگر شرکت ها بیمه به طبقه بندی مشتریان با توجه به ویژگی های قابل مشاهده بپردازند، می توانند نرخ پوشش دهی بیمه و سود خود را افزایش دهند واز سوی دیگر فشاری بر افراد با ریسک کم برای جبران خسارات وارده، به وسیله ی افراد ریسک زیاد به شرکت های بیمه وارد نشود. در این مقاله قصد داریم مروری بر روش های تشخیص افراد ریسک در صنعت بیمه داشته باشیم سپس در مطالعه موردی به شناسایی افراد ریسکی بپردازیم. برای این منظور از درخت تصمیم Hoeffding برای کلاس بندی مشتریان بیمه استفاده شده است.
  • شریف پژوه

پیاده سازی مقاله: ارایه الگوریتمی جدید برای جستجو در درخت های تصمیم با عمق زیاد

پیاده سازی مقاله: ارایه الگوریتمی جدید برای جستجو در درخت های تصمیم با عمق زیاد

چکیده:

درخت ها به ابزاری اجتناب ناپذیر برای ایده گرفتن و پیاده سازی و انتقال مفهوم در علم هوش مصنوعی و کامپیوتر تبدیل شده است . در پیاده سازی بسیاری از الگوریتم های مهم از درخت ها استفاده شده است و هرگونه بهبودی در استراتژی و الگوریتم های مربوط به درخت ها تاثیر بسیاری در سرعت اجرای برنامه ها خواهد داشت . در نوع خاصی از درخت ها به نام درخت تصمیم از روش جستجوی خصمانه جهت جستجو در درخت ها استفاده می شود. یکی از معایب الگوریتم های جستجوی خصمانه مصرف حافظه و پیچیدگی زمان اجرای آن ها در عمق زیاد است که هدف ما در این مقاله ارایه الگوریتمی جدید به نام Deepimax در جهت حل این مشکل می باشد . نتایج حاصل از پیاده سازی الگوریتم جدید نشان داد که این الگوریتم مصرف حافظه و پیچیدگی زمان اجرای کمتری برای جستجوها در عمق زیاد دارد.
  • شریف پژوه
موضوعات
Latest Posts