عنوان تحقیق: مقدمه ای بر داده کاوی
فرمت فایل: word
تعداد صفحات: 31
شرح مختصر:
در دو دهه قبل توانایی های فنی بشر در برای تولید و جمع آوری دادهها به سرعت افزایش یافته است. عواملی نظیر استفاده گسترده از بارکد برای تولیدات تجاری، به خدمت گرفتن کامپیوتر در کسب و کار، علوم، خدمات دولتی و پیشرفت در وسائل جمع آوری داده، از اسکن کردن متون و تصاویر تا سیستمهای سنجش از دور ماهواره ای، در این تغییرات نقش مهمی دارند[1].
بطور کلی استفاده همگانی از وب و اینترنت به عنوان یک سیستم اطلاع رسانی جهانی ما را مواجه با حجم زیادی از داده و اطلاعات میکند. این رشد انفجاری در دادههای ذخیره شده، نیاز مبرم وجود تکنولوژی های جدید و ابزارهای خودکاری را ایجاد کرده که به صورت هوشمند به انسان یاری رسانند تا این حجم زیاد داده را به اطلاعات و دانش تبدیل کند: داده کاوی به عنوان یک راه حل برای این مسائل مطرح می باشد. در یک تعریف غیر رسمی داده کاوی فرآیندی است، خودکار برای استخراج الگوهایی که دانش را بازنمایی می کنند، که این دانش به صورت ضمنی در پایگاه داده های عظیم، انباره داده[1] و دیگر مخازن بزرگ اطلاعات، ذخیره شده است. داده کاوی بطور همزمان از چندین رشته علمی بهره می برد نظیر: تکنولوژی پایگاه داده، هوش مصنوعی، یادگیری ماشین، شبکه های عصبی، آمار، شناسایی الگو، سیستم های مبتنی بر دانش[2]، حصول دانش[3]، بازیابی اطلاعات[4]،محاسبات سرعت بالا[5] و بازنمایی بصری داده[6] . داده کاوی در اواخر دهه 1980 پدیدار گشته، در دهه 1990 گامهای بلندی در این شاخه از علم برداشته شده و انتظار می رود در این قرن به رشد و پیشرفت خود ادامه دهد [2].
واژه های «داده کاوی» و «کشف دانش در پایگاه داده»[7] اغلب به صورت مترادف یکدیگر مورد استفاده قرار می گیرند. کشف دانش به عنوان یک فرآیند در شکل1-1 نشان داده شده است.
فهرست مطالب
1 مقدمه ای بر دادهکاوی... 3
1-1 چه چیزی سبب پیدایش داده کاوی شده است؟. 4
1-2 مراحل کشف دانش.... 6
1-3 جایگاه داده کاوی در میان علوم مختلف... 11
1-4 داده کاوی چه کارهایی نمی تواند انجام دهد؟. 12
1-5 داده کاوی و انبار داده ها 13
1-6 داده کاوی و OLAP. 14
1-7 کاربرد یادگیری ماشین و آمار در داده کاوی... 15
2- توصیف داده ها در داده کاوی... 15
2-1 خلاصه سازی و به تصویر در آوردن داده ها15
2-2 خوشه بندی 16
2-3 تحلیل لینک... 16
3- مدل های پیش بینی داده ها17
3-1 Classification. 17
3-2 Regression. 17
3-3 Time series. 18
4 مدل ها و الگوریتم های داده کاوی... 18
4-1 شبکه های عصبی 18
4-2 Decision trees. 22
4-3 Multivariate Adaptive Regression Splines(MARS). 24
4-4 Rule induction. 25
4-5 K-nearest neibour and memory-based reansoning(MBR). 26
4-6 رگرسیون منطقی... 27
4-7 تحلیل تفکیکی 27
4-8 مدل افزودنی کلی (GAM). 28
4-9 Boosting. 28
5 سلسله مراتب انتخابها29
منابع
شامل بیش از 165 اسلاید آموزشی در قالب پاورپوینت با استفاده از تصاویر متعدد آموزشی در اکثر اسلایدها به زبان فارسی و ذکر مثالهای متعدد عملی
شامل بخش های مختلفی نظیر:
متغیرها، شاخص های مرکزی، میانگین، میانه و مد، شاخص های پراکندگی: دامنه تغییرات (Range)، واریانس، انحراف معیار، ضریب تغییرات (Coefficient of Variation) و دامنه صدکی و دامنه میان چارکی. آزمون فرضیه، آزمون آماری فرضیه، آماره آزمون، ورود اطلاعات، آزمون KS، آمار توصیفی و آمار استنباطی، توصیف نمودارها، آزمون های آماری یک نمونه ای (یک گروهی)، آزمون های آماری برای مقایسه میانگین در دو گروه مستقل، آزمون تی مستقل، آزمون من – ویتنی، آزمون تی – زوجی، آزمون رتبه ای علامت دار ویلکاکسون، آزمون کای دو، آزمون مک نمار، تحلیل واریانس یک طرفه و آزمون های تعقیبی، آزمون کروسکال والیس و آزمون های تعقیبی، تحلیل واریانس با اندازه های تکراری یک گروه و آزمون های تعقیبی، آزمون فریدمن، تحلیل کواریانس، آزمون کای دو، آزمون ککران، تحلیل واریانس فاکتوریال، آزمون همبستگی پیرسون، آزمون همبستگی جزیی، آزمون همبستگی رتبه ای اسپیرمن یا تاوکندال، آزمون منتل هنزل، رگرسیون خطی ساده، چندگانه و استراتژی های مدل سازی، آزمون نقض برازش، تحلیل رگرسیونی خطی چندگانه (چند متغیره)، استراتژی های مدل سازی در تحلیل رگرسیونی، تحلیل رگرسیونی برای متغیرهای کیفی، روایی و پاپایی ابزار اندازه گیری، آلفای کرونباخ، تعیین حساسیت، ویژگی و سایر کمیت های مربوطه
جهت دریافت لینک دانلود فایل آموزشی پاورپوینت راهنمای تصویری تحلیل داده ها در آمار ، لطفا مراحل خرید را طبق راهنما انجام دهید. دقت نمائید که شما این فایل را بصورت فشرده (ZIP) دریافت نموده و پس از دانلود لازم است آن را از حالت فشرده خارج و سپس استفاده نمائید.
کتاب اصول ساختمان داده ها دربر گیرنده ی تمامی مطالب ساختمان داده های رشته های مهندسی کامپیوتر، سخت افزار، نرم افزار و ریاضی کاربردی است. این کتاب در عین حال که به تئوری پرداخته اما عاری از لفاظی و توصیف های ناضروری است. این کتاب می تواند برای دانشجویان رشته مهندسی کامپیوتر به عنوان مرجعی کامل معتبر استفاده شود.
نام نویسنده: سیمور لیپ شوتز
فرمت کتاب: PDF
تعداد صفحات: 514
حجم فایل: 12.2 مگابایت
درود بر شما ممنون از اینکه فروشگاه خودتون رو انتخاب کردید. مقاله پیش رو مربوط به مقاله چالش ها و تنگناهای مدیریت و بازیابی اطلاعات می باشد. این مقاله دارای 7صفحه و به صورت word و pdf می باشد.
این تحقیق ، با موضوع داده ها و شبکه های کامپیوتری بصورت Word انجام گرفته است.تحقیق برای رشته کامپیوتر و IT مناسب است و در 27 برگه می باشد. شما می توانید این تحقیق را بصورت کامل و آماده تحویل از پایین همین صفحه دانلود نمایید.
بلافاصله بعد از پرداخت و خرید ، لینک دانلود نمایش داده می شود، علاوه بر آن لینک فایل مربوطه به ایمیل شما نیز ارسال می گردد.
1- مقدمه
در دنیای امروز که میتوان آن را عصر اطلاعات نامید، انتقال داده ها و شبکه های کامپیوتری که حاصل پیوند دو صنعت کامپیوتر و مخابرات است، از اهمیت ویژه ای برخوردار می باشد. هدف از پیدایش شبکه های کامپیوتری، اتصال کامپیوترهای مستقل از طریق یک فناوری واحد و قوانین مشخص به منظور انتقال داده ها و اشتراک منابع است. منظور از انتقال داده ها، ارسال و دریافت داده ها به صورت پیوسته آنالوگ یا گسسته دیجیتال بر روی رسانه های مختلف انتقال مانند زوج سیم به هم تابیده، فیبر نوری، هوا و غیره می باشد.
توجه کنید که اینترنت و وب، هیچکدام یک شبکه کامپیوتری نمی باشند. اینترنت ، شبکه شبکه ها است و از به هم پیوستن هزاران شبکه نامتجانس و گوناگون که هر کدام از آنها فناوری و قوانین مخصوص به خودش را دارد به وجود آمده است. اما وب گسترده جهانی نمونه ای از یک سیستم توزیع شده است. یک سیستم توزیع شده، مجموعه ای از چندین کامپیوتر مستقل است که از دید کاربر به صورت یک سیستم نامرئی ، متمرکزو متجانس به نظر میرسد و کاربر به جای نگرانی در مورد به خاطر سپردن آدرسها (مثلا آدرس اینترنتی IP)، هر چیز را از طریق نام آن فراخوانی می نماید (مثلا در وب همه چیز به صورت سند یا صفحه وب است و از طریق نام URL قابل دستیابی است و این نامها به صورت خودکار توسط خدمتگزارهای نام حوزه به آدرس IP تبدیل میشوند.) همچنین دقت کنید که وب، میان افزار است و یک لایه نرم افزاری می باشد که در یک محیط ناهمگن بر روی سیستم عامل های متنوع مستقل قرار دارد، اما ایده سیستم های عامل توزیع شده، وظیفه ایجاد یک تصویر متمرکز از کامپیوترهای مستقل را بر عهده سیستم عامل واحد توزیع شده می سپارد.