منبع پایان نامه درمورد ورشکستگی، پیش بینی ورشکستگی، تحلیل پوششی، تحلیل پوششی داده‌ها

اریانس وجود دارد :
واریانس مشترک
واریانس خاص
واریانس خطا
واریانس مشترک ، آن بخش از واریانس است که با سایر متغیرهای لحاظ شده در تحلیل سهیم می‌باشد . واریانس خاص واریانسی است که تنها به یک متغیر خاص مربوط می‌شود . واریانس خطا ناشی از بی اعتباری و ناپایایی در داده های جمع آوری شده و یا شانس و تصادف در اندازه گیری پدیده‌هاست . زمانیکه از تحلیل مؤلفه‌های اصلی استفاده می‌شود ، واریانس کل مد نظر قرار می‌گیرد و عامل‌های دو رگه ای استنتاج می‌شود که سهم کوچکی از واریانس خاص و واریانس خطا را شامل می‌شود ، اما این‌ها در حدی نیستند که ساختار عاملی کل را تحت تأثیر قرار داده و آن را تحریف یا منحرف کند .
نکته دیگر اینکه ، در تحلیل مؤلفه های اصلی ، مقادیر قطرهای ماتریس همبستگی 1 می‌باشند . برعکس در تحلیل عاملی مشترک مقادیر مشترکات در قطر ماتریس قرار می‌گیرد و عامل‌ها تنها بر اساس واریانس مشترک استنتاج می‌گردند . از نقطه نظر واریانس ، تفاوت زیادی بین قرار دادن مقادیر 1 در قطر ماتریس و قرار دادن مقادیر مشترکات در آن وجود دارد . با قرار دادن مقدار1 در قطر ماتریس واریانس کل به ماتریس عاملی وارد می‌گردد ، اما تحلیل عاملی مشترک مقادیر مشترک را در قطر ماتریس قرار می‌دهد و در نتیجه عوامل تنها بر اساس واریانس مشترک محاسبه می‌گردد .
هردو این مدل‌ها در سطح وسیع توسط محققان مورد استفاده قرار می‌گیرند . انتخاب هر یک از این مدل‌ها برای تحلیل داده‌ها به دو معیار مربوط می‌باشد:
هدف محقق از استفاده از تحلیل عاملی
میزان شناخت قبلی از واریانس موجود در متغیرها
زمانیکه ، محقق در صدد پیش بینی و تعیین کمترین تعداد عامل‌هاست که قادر باشد بیشترین واریانس موجود در مقادیر اصلی را تبیین کند ، و شناخت قبلی نیز وجود دارد که واریانس خاص و واریانس خطا سهم کمتری از کل واریانس را شامل می‌شود، در این صورت روش تحلیل مؤلفه‌های اصلی انتخاب مناسبی خواهد بود. در مقابل ، اگر هدف اولیه ، شناسایی ابعاد پنهان در متغیرهای اصلی باشد و محقق نیز شناخت کمتری از واریانس خطا و واریانس خاص دارد ، علاقمند است که این نوع واریانس را حذف کند . مناسب‌ترین مدل در این‌گونه مواقع تحلیل عاملی مشترک می‌باشد (کلانتری، 1389).
2-2-3-مراحل تکنیک آنالیز اجزای اصلی
جمع آوری داده‌ها
با فرض اینکه PCA بر روی یک مجموعه داده های دوبعدی (X,Y) اعمال می‏شود، بعد از جمع آوری داده های این دو بعد، مراحل بعد اجرا می‌گردد.
محاسبه ماتریس کواریانس
ماتریس کواریانس برای داده های دو بعدی به شکل زی خواهد بود:
(■(cov(x,x)&cov(x,y)@cov(y,X)&cov(y,y)))
محاسبه بردارهای ویژه و مقادیر ویژه
در میان تمام بردارهایی که می‏توان ماتریس بردار را در آن ضرب کرد، بردارهایی وجود دارند که پس از ضرب، راستای آن‏ها تغییر نمی‏کند و فقط اندازه آن‏ها تغییر می‏کند، این بردارها را بردار ویژه می‏نامند. برای هر بردار ویژه یک مقدار ویژه نیز وجود دارد که بیان می‏کند اندازه آن بردار پس از تبدیل چند برابر خواهد شد.
Eingenvectors = (■(vector1&vector2@vector3&vector4))
Eigenvalue = (█(value1@value2))
FeatureVector = (eig1 eig2)
Eingenvectors: بردار ویژه
Eigenvalue: مقادیر ویژه
FeatureVector: ماتریسی که شامل بردارهای ویژه به ترتیب مقادیر ویژه می‏باشد.
انتخاب مولفه‏های اصلی
درواقع پراکندگی داده‌ها در راستای بردارهایی که مقادیر ویژه بزرگ‌تری دارند، بیشتر است، در نتیجه، در این مرحله می‏توان بردارهای ویژه‏ای که مقادیر ویژه‏شان کمتر بوده را نادیده گرفت و درواقع کاهش بعد داد. بر اساس ملاک کیسر بردارهایی که مقادیر ویژه‏اشان کمتر از 1 است، حذف می‏گردند.
بدست آوردن داده های جدید

FinalData = RowFeatureVectore × RowDataAdjust
 RowFeatureVectore (بردار ویژگی سطری) ترانهاده ماتریس ستونی از بردار‌های مشخصه هست، پس یک ماتریس سطری از بردار های مشخصه است. که در آن بردار‌های مشخصه پر اهمیت‌تر در بالا قرار دارند.
 RowDataAdjust (داده های تعدیل شده سطری) ترانهاده اطلاعات تعدیل شده است. در هر ستون از مجموعه داده‌ها قرار دارد و هر سطر یک بعد جداگانه را نگهدار می‌کند.
FinalData مجموعه داده های نهایی با مجموع داده‌ها در ستون‌ها و همراه ابعاد سطرها است که منحصرا داده های اصلی را به ازای بردار های اصلی خواهد داد.
استفاده از داده های جدید در مدل بعدی
از داده های بدست آمده در مرحله بعد، بسته به نیاز محقق استفاده خواهد شد. در این پژوهش از داده‏های بدست آمده در مدل تحلیل پوششی داده‏ها استفاده خواهد شد.
قابل ذکر است در این پژوهش برای اجرای تکنیک آنالیز اجزای اصلی از نرم افزار StatistiXL استفاده می‏شود.
2-3-تلفیق DEA و PCA
از زمان ارائه روش تحلیل پوششی داده‌ها توسط چارنز و همکاران ( 1978 )، این روش به عنوان ابزاری موثر برای ارزیابی و الگوبرداری بکار گرفته شده است.همان گونه که گفته شد، در این روش کارایی نسبی هر یک از واحدهای تصمیم گیری(DMU) نسبت به واحدهای همسان برابر است با نسبت موزون خروجی‌ها به نسبت موزون ورودی‌ها محاسبه می‌شود (کوپر، 2000). ضعف این روش در این است که تعداد واحدهای مورد ارزیابی به تعداد متغیرهای ورودی و خروجی مرتبط است(سینکا،2004). لذا، هرچه تعداد متغیرها بیشتر باشد، تحلیل انجام شده از قدرت تمایز کمتری میان واحدهای کارا و ناکارا برخوردار خواهد بود(جنکینز، 2003). بنابراین لازم است که در چنین حالتی تعداد متغیرها را
برای استفاده در مدل DEA کاهش داده شود. بدیهی است چنین کاهشی باید به ترتیبی باشد که کمترین تاثیر را بر تمایز واحدهای کارا و ناکارا داشته باشد. بر اساس یک فرمول تجربی ( مهرگان، 1387):
(خروجی*ورودی)*3 واحدهای مورد ارزیابی
اگر واحدهای ارزیابی (DMU) از سه برابر مجموع ورودی و خروجی‌ها بیشتر نباشد، نیاز به کم کردن ابعاد مسئله و کاهش هدفمند خروجی‌ها داریم( در غیر این صورت تعداد زیادی از واحدها روی مرز کارایی قرار گرفته و کاراییشان یک می‌شود، که باعث نتایج نادرست و پایین آمدن کیفیت مدل می‌شود)

برای این منظور جنکینز و همکاران ( 2003 ) از ماتریس کوواریانس جزئی برای حذف متغیرهایی که با یکدیگر همبستگی زیادی دارند استفاده کرده‏اند.( جنکینز، 2003) آلدر و همکاران در سال 2002 به جای خروجی‌ها یا ورودی‌های اصلی که به مدل DEA وارد می‌شوند از روش PCA استفاده کرده و مؤلفه‌های اصلی ورودی گرا و خروجی گرا را جایگزین متغیرهای اصلی کرده‌اند(آدلر،2002). رویکرد مشابهی برای ارزیابی شبکه های هواپیمایی خصوصی شده به منظور اندازه گیری کیفیت فرودگاه (آدلر، 2001) و برای انتخاب متغیرها و مدل‌های DEA (سینکا، 2004) بکار گرفته شده است. بروس و همکاران ( 2008 ) با رویکردی مشابه رویکرد سینسا و همکاران (2004) از روش‌های PCA و DEAبرای ارزیابی عملکرد در صنعت بانکداری اینترنتی استفاده نموده‌اند. (سینکا،2004) و (بروس، 2008)
در نتیجه این پژوهش مدلی تلفیقی از DEA و PCA در جهت کاهش ابعادی مجموعه داده‌ها در هر یک از دسته بندی‌های انجام شده و رتبه بندی واحدهای تصمیم گیری و در نهایت پیش بینی ورشکستگی در هر یک از دسته‌ها می‌باشد. برای این منظور ابتدا اطلاعات مربوط به ورودی‌ها و خروجی‌ها را استخراج کرده و سپس نسبت تک خروجی‌ها به تک ورودی‌ها را محاسبه نموده و سپس روش PCA را بر روی نسبت تک خروجی به تک ورودی اعمال می‌شود. با انتخاب مناسب چند مؤلفه اصلی اول در تعداد متغیرها کاهش لازم به وجود می‌آید. در ادامه مؤلفه های اصلی انتخاب شده به عنوان ورودی‌های مدل تحلیل پوششی داده‌ها استفاده و تحلیل می‏شوند. در بسیاری از کاربردها که تعداد واحدهای مورد ارزیابی نسبت به تعداد متغیرهای ورودی و خروجی کوچک است، طوری که روش‌های دیگر در تحلیل آن‏ها پاسخگو نیست این روش به خوبی عمل می‌کند. توضیحات تفصیلی در مورد نحوه انجام کار در فصل 3 بیان گردیده است.
ورودیها

این مطلب مشابه را هم بخوانید :   منابع پایان نامه ارشد با موضوعسلسله مراتب، قانون مجازات

خروجیها
شکل1-2- الگوی مفهومی پژوهش

2-4-پیشینه تحقیق
2-4-1- تحقیقات انجام گرفته در خارج
موضوع پیش بینی ورشکستگی شرکت‏ها، در حوزه پژوهشات مالی جذابیت زیادی در بین کارشناسان دارد. در گذشته برای پیش بینی ورشکستگی، بیشتر از نسبت‌های مالی و مدل تشخیصی چندگانه که معرف‌ترین آن‏ها مدل آلتمن (Z-Score) می‌باشد، استفاده شده است که در پژوهش سال 68 مدل آلتمن با دقت 95 و 83 درصد به ترتیب یک و دو سال قبل از ورشکستگی، می‌توانست آن را پیش بینی کند(آلتمن،1968).
از روش‌هایی دیگری که برای پیش بینی ورشکستگی در پژوهشات گذشته استفاده شده، می‌توان به شبکه‌های عصبی مصنوعی اشاره کرد. این مدل‌ها اصولا در مقایسه با روش‌های دیگر پیش بینی از دقت بالاتری برخوردار بودند(مهرانی، 1384)
در جدول شماره 1-2 به طور مختصر به شرح کلیات اهم پژوهشات گذشته در زمینه پیش بینی ورشکستگی شرکت‏ها، پرداخته شده است.

جدول1-2- کلیات پژوهشات پیشین در مورد پیش بینی ورشکستگی
تکنیک مورد استفاده
بازه زمانی بیشترین تحقیقات انجام شده
نتایج
تک متغیری
1930-1966
Vinakor & Reymond در پژوهشات خود در سال 1930 به این نتیجه رسیدند که نسبت سرمایه در گردش به کل دارایی‌ها بهترین راه برای تشخیص ورشکستگی است، در سال‌ها بعد ضمن تایید نتایج پژوهش ریموند، استفاده از نسبت‌های جاری و نسبت جریان نقدی به بدهی‌ها هم راه مناسبی برای پیش بینی ورشکستگی، تشخیص داده شد.
تحلیل تشخیصی چندگانه
1968-2001
مهم‌ترین پژوهش صورت گرفته در این زمینه، مدل آلتمن (ZScore) در سال 1968 بود که به آن اشاره شد و هم اکنون هم از آن برای پیش بینی استفاده می‏شود، همچنین با پژوهشات صورت گرفته در سال‌های 1972 تا 1974 شان داده شد تا 5 سال قبل از وقوع تا 70 درصد دقت می‌توان شرکت‏های درمانده را پیش بینی کرد، در این پژوهشات از 7 تا 14 متغیر که نسبت‌های مالی بوده‏اند استفاده گردیده بود، در سال 1977 توسط Deakin نشان داده شد که علاوه بر ترکیبات خطی از ترکیبات غیر خطی هم می‌توان با دقت 83 درصد یک سال قبل از وقوع درماندگی را پیش بینی نمود. ارائه مدل زتا توسط آلتمن و همکاران در سال 1977که نشان داد ترکیبات خطی نتایج بهتری نسبت به ترکیبات درجه 2 ارائه می‏کنند. همچنین Grica&Ingram در سال 2001 بیان کردند که ضرایب آلتمن با تغییر زمان و مکان باید به هنگام شود.
تحلیل لوجیت و پروپیت
1977-2000
مارتین در سال 1977 نخستین محققی بود که از این روش استفاده کرد و با بررسی 58 بانک که از سال 1970 تا 1976 ورشکسته شده بودند با دقت 87 درصد پیش بینی را انجام داد. از بیشتر پژوهشاتی که با این روش انجام شده نتایج مشابهی بدست آمده است، قابل ذکر است Lennox در سال 1999 ادعا کرده است که این روش نتایج بهتری نسبت به روش تحلیل تشخیصی ارائه می‏نماید.
الگوریتم افزار بازگشتی
1985-2001
فریدمن و همکاران در پژوهش خود در سال 1985 بیان کردند که در 89 درصد در طبقه بندی کل شرکت‏ها، مدل مبتنی بر الگوریتم افزار بازگشتی بهتر از تحلیل تشخیصی عمل می‏نماید. Sung و همکاران
در سال 1999 به این نتیجه رسیدند که مدل مبتنی بر الگوریتم افزار بازگشتی در شرایط عادی و بحران اقتصادی 83 و 81 درصد از موارد درست عمل می‏کند در حالی که مدل تحلیل تشخیصی در شرایط عادی و بحرانی 82 و 80 درصد دقت دارد.
شبکه های عصبی مصنوعی
1990 تا کنون
در پژوهشاتی که در حد فاصل سال‌های 1990 تا 1993 انجام توسط Odom&Shrarda و Salchengereger و Coastes&Fant و Tam&Kiang صورت گرفت نشان داده شده که مدل‌های مبتنی بر شبکه عصبی عملکرد بهتری نسبت به روش‌های قبلی دارند. و در پژوهش سال 1997 Serrano&Cinca روش شبکه عصبی تا 94 درصد شرکت‏های ورشکسته، یک سال قبل از وقوع را پیش‌بینی نمود.
تحلیل پوششی داده‏ها
1994 تا کنون
از سال 1994 که برای اولین بار توسط فرناندز و اسمیت به عنوان یک روش مکمل مورد استفاده قرار گرفت تا کنون پژوهشاتی در زمینه توان این مدل صورت گرفته است که به طور کامل در جدول 2-2 تشریح شده است و به نوعی جدیدترین مدل مورد استفاده برای پیش بینی ورشکستگی است.

از سال1994 مدل تحلیل پوششی داده‌ها نیز به مدل‌های پیش بینی ورشکستگی اضافه شد و معلوم شد که این مدل به عنوان مکمل می‌تواند مدل خوبی برای پیش بینی ورشکستگی در کنار روش‌های دیگر مانند رگرسیون قرار گیرد(فرناندز، 1994) و در سال 2004 این مدل به طور مستقل برای پیش بینی مورد استفاده قرار گرفت و دقت بسیار خوبی برای پیش بینی ارائه کرد(سیلن، 2004)
پس از آن، مدل‌های تحلیل پوششی داده‌ها که پیش از این فقط برای سنجش کارایی مجموعه های یکسان مورد استفاده قرار می‌گرفت با توجه به دقت بالایی که در پیش بینی ورشکستگی در پژوهشات اولیه ارائه کرد و با توجه به مزایایی که داشت بیش از گذشته مورد توجه قرار گرفت. در ادامه پژوهشات انجام شده در زمینه پیش بینی ورشکستگی با استفاده از DEA در خارج از کشور ارائه شده است:

جدول 2-2-تحقیقات پیشین خارجی
ردیف
عنوان
نویسنده
سال و محل انتشار
موضوع مورد بررسی
1
Towards a general nonparametric model of corporate performance
Fernandez castro A,
smith p
1994
OMEGA
تحلیل پوششی داده‌ها اگر به عنوان مکمل سایر روش‌ها مورد استفاده قرار بگیرد می‌تواند در پیش بینی درماندگی مالی شرکت‏ها سودمند باشد
2
Bankruptcy Prediction using data envelopment analysis
Cielen A,
Peeter L
Vahook K
2004
Europen Journal of Operational research
الگوهای مبتنی بر تحلیل پوششی داده‌ها از الگوهای مبتنی بر برنامه ریزی خطی ساده و الگوهای مبتنی بر درخت تصمیم گیری قابلیت پیش بینی بالاتری دارند
3
DEA as a tool for bankruptcy assessment: A comparative study with logistic regression technique
Permachandra M
And others
2007
Europen Journal of Operational Research
الگوهای مبتنی بر تحلیل لوجستیک در نمونه های آموزشی دقت بیشتری به الگوهای مبتنی بر تحلیل پوششی داده‌ها دارد، در حالیکه در نمونه‌های آزمایشی الگوهای مبتنی بر تحلیل پوششی داده‌ها بهتر عمل می‌کند
4
DEA as a tool for predicting corporate failure and success: A case of bankruptcy assessment
Permachandra M
And others
2011
OMEGA
نمونه مورد تحلیل در این مقاله شامل 1001 شرکت (951 شرکت سالم و 50 شرکت ورشکسته) ا

دیدگاهتان را بنویسید