কম্পিউটার

প্রত্যাশা-সর্বোচ্চতা কি?


EM (প্রত্যাশা-সর্বোচ্চতা) অ্যালগরিদম হল একটি বিখ্যাত পুনরাবৃত্তিমূলক পরিমার্জন অ্যালগরিদম যা প্যারামিটার অনুমান আবিষ্কারের জন্য ব্যবহার করা যেতে পারে। এটাকে k-means paradigm-এর একটি এক্সটেনশন হিসেবে বিবেচনা করা যেতে পারে, যা ক্লাস্টারের সাথে একটি বস্তু তৈরি করে যার সাথে এটি ক্লাস্টার গড়ের উপর নির্ভর করে।

EM সদস্যতার সম্ভাব্যতা সংজ্ঞায়িত ওজন অনুযায়ী একটি ক্লাস্টারে প্রতিটি বস্তু তৈরি করে। অন্য শব্দে, ক্লাস্টারগুলির মধ্যে কোন কঠোর সীমানা নেই। এইভাবে, নতুন উপায়গুলি ওজনযুক্ত পরিমাপের উপর ভিত্তি করে মূল্যায়ন করা হয়।

EM একটি মূল অনুমান বা সমন্বয় মডেলের পরামিতিগুলির "অনুমান" দিয়ে শুরু হয় (সম্মিলিতভাবে প্যারামিটার ভেক্টর হিসাবে সংজ্ঞায়িত)। এটি পরামিতি ভেক্টর দ্বারা তৈরি মিশ্রণ ঘনত্বের বিপরীতে থিওরিটিভলি থিওরিটিভলি রিস্কোর করতে পারে। পুনরুদ্ধার করা বস্তুগুলি প্যারামিটার অনুমান পুনরুদ্ধার করতে ব্যবহৃত হয়। প্রতিটি অবজেক্ট একটি সম্ভাবনা তৈরি করেছে যে এটি একটি নির্দিষ্ট ক্লাস্টারের সদস্য হওয়ার কারণে এটি বৈশিষ্ট্য মানগুলির একটি নির্দিষ্ট সেট ধারণ করতে পারে। অ্যালগরিদম নিম্নরূপ উপস্থাপন করা হয় -

  • এটি প্যারামিটার ভেক্টরের একটি আসল অনুমান করতে ব্যবহার করা যেতে পারে − এতে ক্লাস্টারের উপায় বা কেন্দ্রগুলিকে সংজ্ঞায়িত করার জন্য এলোমেলোভাবে k অবজেক্টগুলি নির্বাচন করা রয়েছে (যেমন k- মানে পার্টিশনে), এবং নতুন প্যারামিটারগুলির জন্য অনুমান করা৷

  • এটি নিম্নলিখিত দুটি ধাপের উপর নির্ভর করে পরামিতিগুলি (বা ক্লাস্টার) পুনরাবৃত্তি করে পরিমার্জন করতে পারে -

  • (ক) প্রত্যাশার ধাপ − এটি সম্ভাব্যতা সহ প্রতিটি বস্তু xi কে ক্লাস্টার ck করতে পারে

    $$P(x_{i}\epsilon C_{k})=p(C_{k}|x_{i})=\frac{p(C_{k})p(x_{i}|C_{k} )}{p(x_{i})}$$

    যেখানে p(xi |Ck ) =N(mk , Ek (xi )) গড়, mk এর কাছাকাছি স্বাভাবিক (অর্থাৎ, গাউসিয়ান) বন্টন অনুসরণ করে , প্রত্যাশা সহ, Ek . অন্য পদে, এই ধাপটি xi অবজেক্টের ক্লাস্টার সদস্যতার সম্ভাব্যতা গণনা করে , ক্লাস্টার প্রতিটি জন্য. এই সম্ভাবনাগুলি হল বস্তু xi এর জন্য "প্রত্যাশিত" ক্লাস্টার সদস্যতা .

  • (b) সর্বাধিকীকরণের ধাপ − মডেলের পরামিতিগুলি পুনঃনির্ধারণ (বা পরিমার্জন) করতে উপরে থেকে সম্ভাব্যতা অনুমানের প্রয়োজন হতে পারে। উদাহরণস্বরূপ,

    $$m_{k}=\frac{1}{n}\sum_{i=1}^{n}\frac{x_{i}P(x_{i}\epsilon C_{k})}{\sum_ {j}P(x_{i}\epsilon C_{j})}$$

এই পর্যায়টি ডেটা প্রদত্ত বরাদ্দের সম্ভাবনার "সর্বোচ্চকরণ"।

EM অ্যালগরিদম কার্যকর করা সহজ এবং বোধগম্য। এটি দ্রুত রূপান্তরিত হয় কিন্তু বিশ্বব্যাপী অপটিমায় পৌঁছাতে পারে না। অপ্টিমাইজেশান ফাংশনগুলির নির্দিষ্ট ফর্মগুলির জন্য কনভারজেন্স নিশ্চিত করা হয়। কম্পিউটেশনাল জটিলতা d (ইনপুট বৈশিষ্ট্যের সংখ্যা), n (আইটেমের সংখ্যা), এবং t (অপ্রয়োজনীয় সংখ্যা) তে রৈখিক। বায়েসিয়ান ক্লাস্টারিং কৌশলগুলি শ্রেণি-শর্তযুক্ত সম্ভাবনার ঘনত্বের গণনাকে লক্ষ্য করে। এগুলি সাধারণত পরিসংখ্যান সম্প্রদায়ে ব্যবহৃত হয়৷

শিল্পে, অটোক্লাস একটি বিখ্যাত বায়েসিয়ান ক্লাস্টারিং কৌশল যা EM অ্যালগরিদমের পরিবর্তন ব্যবহার করে। সর্বোত্তম ক্লাস্টারিং বস্তুর সঠিক ক্লাস্টার প্রদত্ত একটি বস্তুর বৈশিষ্ট্যগুলির পূর্বাভাস দেওয়ার ক্ষমতাকে সর্বাধিক করে। AutoClasscan ক্লাস্টার সংখ্যা অনুমান. এটি বিভিন্ন ডোমেনে ব্যবহার করা হয়েছে এবং ইনফ্রারেড জ্যোতির্বিদ্যা ডেটার উপর নির্ভর করে একটি নতুন শ্রেণীর তারা খুঁজে পেতে সক্ষম হয়েছে৷


  1. JSP এ একটি অ্যাপ্লিকেশন অবজেক্ট কি?

  2. JSP একটি পৃষ্ঠা বস্তু কি?

  3. C# এ একটি অবজেক্ট পুল কি?

  4. পাইথনে একটি TimeTuple কি?