۳۸۴ مطلب با موضوع «هوش مصنوعی» ثبت شده است

پروژه داده کاوی بازاریابی مستقیم (Direct marketing) با پایتون (Python)

سفارش انجام پروژه داده کاوی بازاریابی مستقیم:

بازاریابی مستقیم (Direct Marketing) یعنی استفاده از کانال های مستقیم مصرف کننده، برای رساندن و تحویل کالاها و خدمات به مشتریان بدون استفاده از واسطه های بازاریابی. این کانال ها شامل پست مستقیم، کاتالوگ ها، بازاریابی تلفنی، تلویزیون تعاملی، دکه ها، وب سایت ها، و تجهیزات همراه می شوند. بازاریاب های مستقیم به دنبال یک پاسخ قابل اندازه گیری، مثل سفارش مشتری هستند. برای مطالعه جزییات بیشتر در مورد بازاریابی مستقیم کلیک کنید.

در این پروژه، با استفاده از پایتون (Python)، مجموعه داده های مربوط به بازاریابی مستقیم مورد بررسی قرار گرفته است. راهکارهای متعدد پاکسازی داده ها، دسته بندی، خوشه بندی بر روی داده ها اعمال شده است و نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

پیاده سازی مقاله: زمان بندی وظایف در محیط ابری با استفاده از الگوریتم ژنتیک

پیاده سازی مقاله: زمان بندی وظایف در محیط ابری با استفاده از الگوریتم ژنتیک

چکیده:

با رشد مجازی سازی در سیستم های و تکنولوژی های جالب امروزی ، رایانش ابری به عنوان بستر جدید محاسباتی ظهور کرد. هدف نهایی رایانش ابری جلب رضایت کاربران بر اساس کیفیت سرویس تضمین شده برای آنها و کسب سود برای سرویس دهنده ی رایانش ابری می باشد، بنابراین لازم است که یک الگوریتم زمان بندی به هدف دست پیدا کند. اما مدل های موجود به دلیل اینکه فقط روی افزایش کارایی سیستم کار می کنند با محیط ابر قابل تطبیق نیستند، بطوریکه اکثر روش ها زمان بندی در محاسبات کلاستری فقط در زمینه ی بهینه کردن زمان تکمیل شده کارهای دسته ای، تلاش می کنند. زمان بندهای محیط ابر باید کیفیت سرویس موردنظر کاربر را فراهم کنند تا رضایت وی جلب شود. به همین منظور در این مقاله روشی برای حل مسئله ی زمان بندی بر اساس الگوریتم ژنتیک ارائه خواهد شد. در مدل ارائه شده، زمان بند در هر چرخه ی زمان بندی تابع زمان بندی الگوریتم ژنتیک را فراخوانی می کند، این تابع مجموعه ای از کارهای زمان بندی شده را ایجاد کرده و کیفیت هر یک از مجموعه ها را بر اساس میزان تامین رضایت کاربران و دسترسی پذیری ماشین های مجازی ارزیابی می کند و این تابع تا رسیدن به زمان بندی بهینه ادامه پیدا می کند. نتایج شبیه سازی های انجام شده میزان کارایی و تاثیر بیشتر مدل ارائه شده نسبت به مدل های موجود مانند روش زمان بندی نوبت چرخشی را نشان می دهد.
  • شریف پژوه

پیاده سازی پایان نامه: تخمین مدت زمان جراحی از طربق تکنیک های داده کاوی

پیاده سازی پایان نامه: تخمین مدت زمان جراحی از طربق تکنیک های داده کاوی 

اتاق های عمل  یکی از گران ترین و سودآورترین منابع در یک سیستم بیمارستانی هستند. مدیران بیمارستان ها  همواره تلاش می کنند تا از این منابع به بهترین شکل ممکن استفاده کنند. به طور سنتی، مدت زمان جراحی با استفاده از آمار ها و اطلاعات موجود تخمین زده می شود. در این راستا برای غلبه بر مشکلات موجود در تخمین با انواع روش های سنتی و کمبود حجم نمونه کافی، روش های مبتنی بر داده کاوی پیشنهاد می شود که با استفاده از تکنیک های  موجود مدت زمان مورد نظر را پیش بینی خواهند کرد.

در این پروژه، با استفاده از تکنیک های داده کاوی راهکاری برای پیش بینی مدت زمان جراحی ارائه می شود.

  • شریف پژوه

پیاده سازی پایان نامه: تحلیل احساسات برای تشخیص افسردگی با یادگیری ماشین

پیاده سازی پایان نامه: تحلیل احساسات داده های رسانه های اجتماعی برای تشخیص افسردگی با یادگیری ماشین

عقیده کاوی یا تحلیل احساسات امروزه یک روند نوظهور برای درک احساسات افراد در موقعیت های مختلف زندگی روزمره آنهاست. در این تحقیق روشی بر تحلیل احساسات در داده‌های رسانه‌های اجتماعی برای تشخیص دلهره یا دلسردی با استفاده از تکنیک‌های مختلف هوش مصنوعی ارائه می شود.

  • شریف پژوه

پروژه داده کاوی تشخیص بیماری های قلبی با نرم افزار نایم (Knime)

سفارش انجام پروژه داده کاوی تشخیص بیماری های قلبی:

بیماری قلبی-عروقی: یا بیماری قلبی  دسته‌ای از بیماری‌ها است که در قلب یا رگ‌ها (سرخرگ‌ها، مویرگ‌ها و سیاهرگ‌ها) رخ می‌دهد. بیماری قلبی-عروقی به هر گونه بیماری که دستگاه گردش خون را تحت تاثیر قرار دهد اشاره دارد که شامل بیماری‌های قلبی، بیماری‌های عروقی مغز و کلیه و بیماری‌های شریانی می‌شود. برای مطالعه جزییات بیشتر در مورد بیمارهای قلبی و انواع آن کلیک کنید.

در این پروژه، با استفاده از نرم افزار نایم (Knime)، مجموعه داده های مربوط به بیماری های قلبی مورد بررسی قرار گرفته است. راهکارهای متعدد پاکسازی داده ها، دسته بندی، خوشه بندی بر روی داده ها اعمال شده است و نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

پیاده سازی پایان نامه: پیش بینی نقص نرم افزار با استفاده از تکنیک های داده کاوی

پیاده سازی پایان نامه: پیش بینی نقص نرم افزار با استفاده از تکنیک های داده کاوی

فرآیند تست یکی از مهمترین فعالیت ها در توسعه و نگهداری نرم افزار است و زمان و منابع قابل توجهی را مصرف می کند. از آنجایی که توزیع اشکالات بین ماژول‌های نرم‌افزار یکنواخت نیست این مسئله در بسیاری از مواقع چالش برانگیز می باشد. بنابراین، پیش‌بینی نقص نرم‌افزار تکنیک مهمی است که در تضمین کیفیت نرم‌افزار مورد استفاده قرار می‌گیرد.  در این پروژه، با استفاده از تکنیک های داده کاوی راهکاری برای پیش بینی نقص نرم افزار ارائه می شود.

  • شریف پژوه

پیاده سازی مقاله: بررسی کاربرد چارچوب های تحلیل عظیم داده ها در پیش بینی زلزله

پیاده سازی مقاله: بررسی کاربرد چارچوب های تحلیل عظیم داده ها در پیش بینی زلزله

چکیده:

این مقاله به بررسی کاربرد چارچوب های عظیم داده ها از جمله آپاچی هادوپ و آپاچی اسپارک در پیش بینی زلزله پرداخته است. برای این منظور، ابتدا چارچوب های هادوپ و اسپارک، نصب و پیکربندی شده، سپس از ابزار تحلیل و داده کاوی رپیدماینر و الگوریتم ماشین بردار پشتیبان غیرخطی با تابع کرنل RBF باتوجه به داده های پژوهش جهت مدل سازی بر روی این 2 چارچوب استفاده گردید. سپس همین فرآیند بدون استفاده از چارچوب های هادوپ و اسپارک تکرار گردید. مقایسه نتایج نشان می دهد؛ در مدلی که از چارچوب های هادوپ و اسپارک بعنوان زیرساخت پردازش استفاده نشده است، زمان اجرا حدودا 4 0 برابر حالتی است که از هادوپ و اسپارک استفاده گردیده است. ولیکن درخصوص خروجی مدل در رابطه با پیش بینی بزرگای زلزله، در هر دو مدل نتایج یکسان بوده و تفاوتی وجود نداشته است.
  • شریف پژوه

پیاده سازی پایان نامه: پیش بینی ریزش مشتری با استفاده از تکنیک های داده کاوی

پیاده سازی پایان نامه: پیش بینی ریزش مشتری با استفاده از تکنیک های داده کاوی

رویگردانی مشتریان یا ریزش مشتری، اصطلاحی تجاری اســت که برای از دست رفتن مشــتریان استفاده می‌شود. سازمان‌ها و شرکت‌هایی مانند بانک‌ها، شرکت‌های مخابراتی، ارائه‌دهندگان خدمات اینترنتــی (ISP)، شرکت‌های تلویزیون کابلی، شرکت‌های بیمه و غیره اغلب از رویگردانی مشــتریان و نرخ از دست دادن مشــتریان به‌عنوان یکی از معیارهای کلیدی سنجش در کسب‌وکار استفاده می‌کنند. دلیل این امر این است که هزینه نگهداری یک مشتری موجود بسیار کمتر از هزینه جذب یک مشتری تازه است. بنابراین این نوع بنگاه‌های اقتصادی، اغلب واحدها و بخش‌هایی به نام خدمات مشــتریان دارند که سعی می‌کنند مشــتریان رویگردان را دوباره بازگردانند زیرا مشــتریان قدیمی معمولاً ارزش بیشــتری از مشتریان جدید خلق می‌کنند. برای مطالعه ی بیشتر کلیک کنید.

در این پروژه، با استفاده از تکنیک های داده کاوی راهکاری برای پیش بینی ریزش مشتری ارائه می شود.

  • شریف پژوه

پروژه داده کاوی تشخیص تقلب در کارت های اعتباری با نرم افزار کلمنتاین یا مدلر(IBM Spss Modeler)

سفارش انجام پروژه داده کاوی تشخیص تقلب در کارت های اعتباری:

به دلیل ضعف های امنیتی سیستم پردازش کارت هـای بـانکی، تقلـب در آن هـا رونـد رو به گسترشی دارد و خسارت های زیادی وارد می کند. تقلب در کارت های بانکی به یکی از راه های کسب درآمد بـرای مجرمـان تبـدیل شـده اسـت. به همین دلیل مسئله ی تقلب برای بانـکهـا و مؤسسه ها اهمیت بالایی دارد. رویکردهای تشخیص تقلب به طور گسترده به دو دسته تقسیم می شوند. مورد اول، تشخیص سو استفاده است که تلاش می کند که موارد مشاهده شده قبلی را در قالب یک الگو یا امضا تشخیص دهد. مورد دوم، تشخیص ناهنجاری است که تلاش می کند تا یک مشخصه از تاریخچه عملکرد برای هر کاربر ایجاد کرده و سپس با هرگونه انحراف به قدر کافی بزرگ، پی به یک رفتار مشکوک می برد.

در این پروژه، با استفاده از نرم افزار کلمنتاین(clementine) یا مدلر(IBM Spss Modeler)، مجموعه داده های مربوط به تشخیص تقلب در کارت های اعتباری مورد بررسی قرار گرفته است. راهکارهای متعدد پاکسازی داده ها، دسته بندی، خوشه بندی بر روی داده ها اعمال شده است و نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

پروژه تشخیص اسپم با استفاده از تلفیق شبکه ی عصبی و الگوریتم کلونی زنبور عسل

سفارش انجام پروژه تشخیص اسپم با استفاده از تلفیق شبکه ی عصبی و الگوریتم کلونی زنبور عسل:

به سوءاستفاده از ابزارهای الکترونیکی مانند ایمیل، مسنجر، گروه‌های خبری ایمیلی، فکس، پیام کوتاه و... برای ارسال پیام به تعداد زیاد و به صورت ناخواسته اسپم می‌گویند. با توجه به هزینه اندک این روش نسبت به پست سنتی که در گذشته برای ارسال پلاک به پلاک تبلیغات مورد استفاده قرار می‌گرفت و همچنین ناقص بودن قوانین بین‌المللی برای محدود کردن هرزنامه، در حال حاضر اسپم ها در سطح وسیعی ارسال می‌شوند. امروزه اسپم‌ها به‌طور عمده با هدف‌های تجاری منتشر می‌شوند ولی اسپم‌های غیرتجاری مانند اسپم های سیاسی یا مذهبی نیز روز به روز در حال افزایش هستند. برای مقابله با اسپم ها تاکنون روش‌های متعددی ایجاد شده است و این روند با توجه به ابعاد گسترده آن، همچنان ادامه دارد. برای مطالعه جزییات بیشتر در مورد تشخیص اسپم کلیک کنید.

در این پروژه، با استفاده از تلفیق روش های شبکه ی عصبی (neural network) و الگوریتم کلونی زنبور عسل (Artificial bee colony algorithm)، متن های حاوی پیام های اسپم شناسایی و فیلتر خواهند شد. نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

پروژه داده کاوی تشخیص بیماری دیابت با پایتون(Python)

سفارش انجام پروژه داده کاوی تشخیص بیماری دیابت :

دیابت یا بیماری قند یک اختلال سوخت و سازی (متابولیک) در بدن است. در این بیماری توانایی تولید هورمون انسولین در بدن از بین می‌رود یا بدن در برابر انسولین مقاوم شده و بنابراین انسولین تولیدی نمی‌تواند عملکرد طبیعی خود را انجام دهد. نقش اصلی انسولین پایین آوردن قند خون توسط سازوکارهای مختلف است. دیابت دو نوع اصلی دارد. در دیابت نوع یک، تخریب سلول‌های بتا در پانکراس منجر به نقص تولید انسولین می‌شود و در نوع دو، مقاومت پیش رونده بدن به انسولین وجود دارد که در نهایت ممکن است به تخریب سلول‌های بتای پانکراس و نقص کامل تولید انسولین منجر شود. برای مطالعه جزییات بیشتر در مورد بیماری دیابت کلیک کنید.

در این پروژه، با استفاده از پایتون (Python)، مجموعه داده های مربوط به بیماری دیابت مورد بررسی قرار گرفته است. راهکارهای متعدد پاکسازی داده ها، دسته بندی، خوشه بندی بر روی داده ها اعمال شده است و نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

دریافت ویدیوی آموزشی بهینه سازی شبکه ی عصبی با الگوریتم رقابت استعماری

برای نمایش مطلب باید رمز عبور را وارد کنید
  • شریف پژوه

پروژه داده کاوی پیش بینی نقص در ماژول های نرم افزاری با نرم افزار کلمنتاین یا مدلر(IBM Spss Modeler)

سفارش انجام پروژه داده کاوی پیش بینی نقص در ماژول های نرم افزاری:

با توجه به اهمیت نقش نرم‌افزارها در زندگی جوامع امروزی، تحقیقات پیرامون کیفیت نرم‌افزار در سال‌های اخیر، گسترش زیادی داشته است. خطاهای پیش‌بینی نشده ی نرم‌افزاری هزینه‌های زیادی را مصرف کننده ها، تحمیل می‌کند. بنابراین، تحقیقات حوزه ی نرم افزار، بر روی تولید سیستم‌های با کیفیت بالا متمرکز شده‌اند. مهم ترین مولفه در سیستم نرم‌افزاری، قابلیت اطمینان است. تعداد خرابی در زمان اجرای نرم‌افزار باید حداقل شود تا بتوان به قابلیت اطمینان مناسبی حاصل شود.

در این پروژه، با استفاده از نرم افزار کلمنتاین(clementine) یا مدلر(IBM Spss Modeler)، مجموعه داده های مربوط به پیش بینی نقص در ماژول های نرم افزاری مورد بررسی قرار گرفته است. راهکارهای متعدد پاکسازی داده ها، دسته بندی، خوشه بندی بر روی داده ها اعمال شده است و نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

بهینه سازی شبکه عصبی با الگوریتم کلونی زنبور عسل برای داده کاوی تشخیص نفوذ در شبکه های کامپیوتری

سفارش انجام پروژه داده کاوی تشخیص نفوذ در شبکه های کامپیوتری به کمک روش های شبکه ی عصبی و الگوریتم کلونی زنبور عسل:

سامانه‌های تشخیص نفوذ، وظیفهٔ شناسایی و تشخیص هر گونه استفادهٔ غیرمجاز به سیستم، سوء استفاده یا آسیب‌رسانی توسط هر دو دستهٔ کاربران داخلی و خارجی را بر عهده دارند. تشخیص و جلوگیری از نفوذ امروزه به عنوان یکی از مکانیزم‌های اصلی در برآوردن امنیت شبکه‌ها و سیستم‌های رایانه‌ای مطرح است و عمومأ در کنار دیواره‌های آتش و به صورت مکمل امنیتی برای آن‌ها مورد استفاده قرار می‌گیرند. برای مطالعه جزییات بیشتر در مورد تشخیص نفوذ کلیک کنید.

در این پروژه، با استفاده از تلفیق روش های شبکه ی عصبی (neural network) و الگوریتم کلونی زنبور عسل (Artificial bee colony algorithm)، مجموعه داده های مربوط به تشخیص نفوذ در شبکه های کامپیوتری مورد بررسی قرار گرفته است. نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

پیاده سازی مقاله: طبقه بندی زیرگروه ویروس آنفولانزا با استفاده از تکنیک های داده کاوی

پیاده سازی مقاله: طبقه بندی زیرگروه ویروس آنفولانزا با استفاده از تکنیک های داده کاوی

چکیده:

آنفولانزا یک بیماری شدیدا مسری، حاد و تب زاست که در اثر ویروس آنفولانزا ایجاد می شود ، این ویروس از سه نوع تشکیل شد ه-است: نوع B، Aو C. در طی قرن گذشته، اپیدمی های مختلفی از آنفولانزا نوع A، مرگ و میر و خسارات سنگین اقتصادی به جامعه انسانی تحمیل کرده است. آنفولانزا A بر اساس آنتی ژن های سطحی اش، هماگلوتینین و نورامینیداس تقسیم بندی میشود. تا کنون61 زیرگروه از هماگلوتینین و 9 زیرگروه از نورامینیداس شناسایی شده است. تشخیص زودهنگام و دقیق زیرگروه ویروس امری حیاتی است. کارهای معدودی در حوزه داده کاوی در این راستا، انجام شده است که غالبا روی ناحیه محدودی از دیتاست و تنها برای چند زیرگروه رایج بوده است؛ در این پژوهش، دیتاست بزرگی شامل 43533 توالی ثبت شده آنفولانزا نوعA در کتابخانهNCBI از سال 1900 تا کنون در قالب 4 گروه استفاده شده است: توالی های DNA و پروتئینی آنتی ژن هماگلوتینین، توالیهایDNA و پروتئینی آنتی ژن نورامینیداس. پس از پیش پردازش های متعدد، با استفاده از طبقه بندی جنگل تصادفی، جنگلی از طبقه-بندهای مستقل از هم، مدل دقیقی برای تشخیص زیرگروه ویروس، بدست آمد. این مدل قادر به تشخیص ویروس از تمام زیرگروه-ها، بر اساس توالی هر کدام از آنتی ژن های هماگلوتینین و نورامینیداس با تشخیص و حساسیت 99% میباشد.

  • شریف پژوه

پروژه داده کاوی تشخیص بیماری کلیوی با نرم افزار وکا(Weka)

سفارش انجام پروژه داده کاوی تشخیص بیماری کلیوی:

کلیه یکی از اندام‌های درونی بدن انسان و برخی دیگر از جانداران است. کار کلیه تصفیه خون از مواد زائد و دفع متابولیت‌های بدن می‌باشد جالب است بدانید انسان می‌تواند با ۲۰٪ کلیه‌هایش زندگی نسبتاً سالمی داشته باشد. کلیه نقش مهمی در دفع مواد زائد و تعادل آب و الکترولیتها در بدن دارد. نارسایی حاد کلیوی در اثر تخریب کلیه‌ها پدید می‌آید و با فقدان سریع عملکرد کلیوی مشخص می‌شود. این بیماری منجر به ناهنجاری‌های الکترولیتی و بر پایه اسید و احتباس فراورده‌های زاید نیتروژنی از قبیل اوره و کراتینین می‌گردد. برای مطالعه جزییات بیشتر در مورد کلیه و بیماری های آن کلیک کنید.

در این پروژه، با استفاده از نرم افزار وکا(Weka)، مجموعه داده های مربوط به بیماری کلیوی مورد بررسی قرار گرفته است. راهکارهای متعدد پاکسازی داده ها، دسته بندی، خوشه بندی بر روی داده ها اعمال شده است و نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

سفارش انجام پروژه بهبود فرآیند تشخیص نفوذ با تلفیق روش های درخت تصمیم و الگوریتم ژنتیک

سفارش انجام پروژه تشخیص نفوذ در شبکه های کامپیوتری با تلفیق روش های درخت تصمیم و الگوریتم ژنتیک:

 

سامانه‌های تشخیص نفوذ، وظیفهٔ شناسایی و تشخیص هر گونه استفادهٔ غیرمجاز به سیستم، سوء استفاده یا آسیب‌رسانی توسط هر دو دستهٔ کاربران داخلی و خارجی را بر عهده دارند. تشخیص و جلوگیری از نفوذ امروزه به عنوان یکی از مکانیزم‌های اصلی در برآوردن امنیت شبکه‌ها و سیستم‌های رایانه‌ای مطرح است و عمومأ در کنار دیواره‌های آتش و به صورت مکمل امنیتی برای آن‌ها مورد استفاده قرار می‌گیرند. برای مطالعه جزییات بیشتر در مورد تشخیص نفوذ کلیک کنید.

در این پروژه، با استفاده از تلفیق روش های درخت تصمیم (decision tree) و الگوریتم ژنتیک(Genetic algorithm)، مجموعه داده های مربوط به تشخیص نفوذ در شبکه های کامپیوتری مورد بررسی قرار گرفته است. نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

بهینه سازی شبکه عصبی با الگوریتم جستجوی فاخته برای پیش بینی ورشکستگی

سفارش انجام پروژه پیش بینی ورشکستگی به کمک روش های شبکه ی عصبی و الگوریتم جستجوی فاخته:

پیش بینی ورشکستگی یکی از مهم ترین عنوان های کاربرد داده کاوی در حوزه های مالی است. در این راستا، عوامل، شرایط و اقداماتی که نهایتا به مشکلات مالی منجر می شود، شناسایی خواهند شد. در طول سال های اخیر، تحقیقات مالی و حسابداری گسترده ای در این زمینه انجام شده است. اهمیت این مسئله به حدی است که بسیاری از سرمایه گذاری ها و همکاری های مالی قبل از حصول اطمینان از عدم امکان ورشکستگی انجام نمی شود. برای مطالعه جزییات بیشتر در مورد پیش بینی ورشکستگی کلیک کنید.

در این پروژه، با استفاده از تلفیق روش های شبکه ی عصبی (neural network) و الگوریتم جستجوی فاخته (Cuckoo search)، مجموعه داده های مربوط به پیش بینی ورشکستگی مورد بررسی قرار گرفته است. نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

پروژه داده کاوی امتیاز اعتباری (Credit scoring) با نرم افزار رپیدماینر (RapidMiner)

سفارش انجام پروژه داده کاوی امتیاز اعتباری:

امتیاز اعتباری یک عبارت عددی است که با تکنیک‌های آماری و بر اساس اطلاعات واقعی که بیانگر وضعیت جاری و سابقه‌ای فرد یا شرکت هستند محاسبه می‌شود. امتیاز اعتباری یک نمره قابل مقایسه است؛ لذا تصمیم‌گیری بر این مبنا، در مقایسه با روش‌های سلیقه‌ای و گزارش‌های متنی، به مراتب قابل اطمینان‌تر و منصفانه‌تر خواهد بود. برای مطالعه جزییات بیشتر در مورد امتیازاعتباری کلیک کنید.

در این پروژه، با استفاده از نرم افزار رپیدماینر (RapidMiner)، مجموعه داده های مربوط به امتیاز اعتباری مورد بررسی قرار گرفته است. راهکارهای متعدد پاکسازی داده ها، دسته بندی، خوشه بندی بر روی داده ها اعمال شده است و نتایج در قالب مستندات و همچنین فایل های شبیه سازی فراهم شده است.

  • شریف پژوه

پیاده سازی مقاله: پیش بینی قیمت سهام بانک صادرات با استفاده از شبکه عصبی مصنوعی

پیاده سازی مقاله: پیش بینی قیمت سهام بانک صادرات با استفاده از شبکه عصبی مصنوعی

چکیده:

امروزه سرمایه گذاری در بورس، بخش مهمی از اقتصاد جامعه را تشکیل می دهد. تغییرات قیمت سهام یکی از مهم ترین موضوعات مورد توجه هر سرمایه گذار است. به همین دلیل پیش بینی قیمت سهام برای سهامداران از اهمیت بالایی برخوردار است تا بتوانند از سرمایه گذاری خود، سود بیشتری کسب کنند. در این نوشتار سعی بر این است که به پیش بینی قیمت سهام روز بعد بانک صادرات در بورس اوراق بهادار تهران با استفاده از مدل پرسپترون چند لایه از شبکه های عصبی مصنوعی بپردازیم و سعی میکنیم مدلی را انتخاب کنیم که میانگین مجموع مربعات خطای آن (MSE) کمتر باشد. متغیرهای زیادی بر قیمت سهام تاثیرگذار هستند، اما از بین آن ها تاثیر شاخص های اقتصادی را می توان بیشتر دانست. از جمله : نرخ ارز، قیمت طلا و قیمت نفت. این شاخص ها به عنوان متغیرهای مستقل برای پیش بینی قیمت سهام درنظر گرفته می شوند. نتایج حاصل نشان می دهد شبکه با ترکیب 20-80 و معماری 1-14-4 به بهترین پاسخ همگرا می شود.
  • شریف پژوه
موضوعات
Archive