কৃত্রিম বুদ্ধিমত্তা নিজের মতামতের যুৎসই ব্যখ্যা দিতে পারবে?
AI: এ যেন ফ্র্যাঙ্কেনস্টাইনের গল্পেরই নতুন অধ্যায়। যন্ত্র জীবিত হয়েছে, এবার সে নিজের অস্তিত্বের ব্যাখ্যা চাইছে। আজকের এই ব্যাখ্যামুখী কৃত্রিম বুদ্ধিমত্তা আসলে মানব সভ্যতারই আত্মসমালোচনা।
আপনার কী রোগ হয়েছে, কেন আপনি ইংরেজি না নিয়ে অর্থনীতি পড়লেন, কিংবা কেন সকালে চায়ে চিনি কম দিলেন? জীবনের এই রকম হরেক গুরুত্বপূর্ণ সিদ্ধান্ত যে নেয়, সে কেন সেইটে নিল না জানলে, সেই সিদ্ধান্তে বিশ্বাস রাখতে পারবেন? আবার সে যদি হয় যন্ত্র, তাহলে তো 'টু বি অর নট টু বি' সেইটিই হয়ে ওঠে মূল প্রশ্ন। ফলাফল নিখুঁত হলেও যখন প্রশ্ন ওঠে 'কেন?' তখন কৃত্রিম বুদ্ধিমত্তা চুপ, যেন ফ্র্যাঙ্কেনস্টাইন। মানুষের জীবনের সবচেয়ে কঠিন কাজ কী? প্রেমে পড়া? ডায়েট মেনে চলা? না। সিদ্ধান্তের ব্যাখ্যা দেওয়া। সুইজারল্যান্ডের ইপিএফএলের গবেষক ভিনিত্রা স্বামী এবার এই প্রশ্নই ছুঁড়ে দিলেন কৃত্রিম বুদ্ধিমত্তার (AI) গলায়। গত এক দশকে বিশ্বজোড়া তথ্য আর অ্যালগরিদমের কোলাহলে যে ‘ব্ল্যাক-বক্স’ তৈরি হয়েছে তার ভিতরে যুক্তি যেন হারিয়ে গিয়েছে ধোঁয়াশায়। আছে কেবল ফলাফল, কিন্তু ফলাফলের পথ বুঝতে উঁকি মারলেও সাধারণের পক্ষে তার অর্থ বোঝা হয়ে ওঠে প্রায় ছায়া ধরার মতো। ১৯৭০ এর দশকের মাইসিন, ১৯৮০-এর দশকে স্নায়ু জালের উত্থান, ২০১২ এর অ্যালেক্সনেট কৃত্রিম বুদ্ধিমত্তাকে নির্ভুল স্থানাঙ্ক দিয়েছে বটে কিন্তু তার বিশ্বাসযোগ্যতা হারিয়েছে বিস্তর। মার্কিন বিজ্ঞানী মাইকেল জর্ডন বলেছিলেন, "শক্তিশালী হলেও যন্ত্রের মধ্যে প্রজ্ঞার বোধ নেই।" আর সেই অভাব থেকেই জন্ম নিয়েছে মানুষকেন্দ্রিক ব্যাখ্যাযোগ্য কৃত্রিম বুদ্ধিমত্তা(Explainable Artificial Intelligence বা XAI)।
সুইজারল্যান্ডের ইপিএফএল (École Polytechnique Fédérale de Lausanne)-এর তিন গবেষক ভিনিত্রা স্বামী, জিব্রিল ফ্রেজ ও তানিয়া কেসার তাঁদের প্রবন্ধ “The Future of Human-Centric Explainable Artificial Intelligence is not Post-Hoc Explanations” এ জানিয়েছেন, মানবকেন্দ্রিক কৃত্রিম বুদ্ধিমত্তার ভবিষ্যৎ ‘পোস্ট-হক’ ব্যাখ্যার মধ্যে নয়, বরং এমন নকশায় যা জন্ম থেকেই ব্যাখ্যাযোগ্য। যেন শিশুকে এমনভাবে শেখানো বাবা, শুধু হাঁটতে শিখো না, হাঁটার কারণও বোঝো।
আরও পড়ুন- মিথ্যেবাদী অনৈতিক এআই, মানুষ তাকে সামলাতে পারবে?
আজকের কৃত্রিম বুদ্ধিমত্তা মডেল, বিশেষত ডিপ লার্নিং, অনেকটা “ব্ল্যাক বাক্স”-এর মতো। এ যেন সেই কেরানি, যিনি কাজ করেন দারুণ, কিন্তু কাউকে বলেন না কীভাবে করলেন, শুধু বলেন, “ ডান স্যার!” বর্তমানের ব্যাখ্যামূলক পদ্ধতি লাইম (LIME), স্যাপ (SHAP) বা কাউন্টারফ্যাক্টুয়াল মডেল (Counterfactual Models) তৈরি হওয়ার পর আলাদা এক “এক্সপ্লেইনার” বসানো হয় ব্যাখ্যা দেওয়ার জন্য। কিন্তু গবেষকরা দেখেছেন একই তথ্যের জন্য বিভিন্ন এক্সপ্লেইনার সম্পূর্ণ ভিন্ন ফল দেখাচ্ছে। যেন একই রোগীর জন্য তিনজন ডাক্তার তিনরকম রোগ নির্ণয় করছেন। যেন শেকসপিয়রের তিন ডাকিনী একই ভাগ্য নিয়ে তিন ভাষায় কথা বলছে। তানিয়া কেজার জানান, “এক্সপ্লেইনারদের মধ্যে এই মতভেদ বেশ আতঙ্কের , ভুল ব্যাখ্যায় জীবনের সিদ্ধান্ত নেওয়া যায় না। এই অস্থিরতা ও অসঙ্গতি মানুষের আস্থা নষ্ট করছে।" বিংশ শতাব্দীর শেষভাগে যখন নিউরাল নেটওয়ার্কের জোয়ার, তখনই সঠিক বনাম স্বচ্ছতার এই দ্বন্দ্ব।
জেনারেটিভ অ্যাডভার্সারিয়াল নেটওয়ার্কের জনক বিজ্ঞানী ইয়ান গুডফেল সতর্ক করেছিলেন বটে, বলেছিলেন,“আমরা এমন মডেল তৈরি করেছি যা ফলাফল দেয়, কিন্তু তাদের মন বোঝা দুরুহ।” প্রবন্ধ বলছে, ভবিষ্যতের কৃত্রিম বুদ্ধিমত্তাকে মানুষকেন্দ্রিক হতে হলে তা হতে হবে বাস্তব সময়পোযোগী, নির্ভুল, সহজবোধ্য, সুসঙ্গত। এই প্রয়োজন কেবল প্রযুক্তিগত নয়, নৈতিকও বটে। চিকিৎসার সময় যদি অ্যালগরিদম বলে বসে রোগীর মৃত্যু সম্ভাবনা ৭৫%, অথচ কেন তা বলে বোঝানো যাবে না বস, তবে সেই তথ্য চিকিৎসক বা পরিবার কীভাবে গ্রহণ করবে? সমাধান তবে কী ?
স্বামী ও তাঁর সহকর্মীরা এক নতুন দর্শন প্রস্তাব করেছেন, কৃত্রিম বুদ্ধিমত্তার নকশা গড়ে উঠবে ‘ইন্টারপ্রিটেবল-বাই-ডিজাইন’ কে ভিত্তি করে অর্থাৎ, ব্যাখ্যা করার ক্ষমতা থাকবে তার ডিএনএতেই । তারা দুটি পথও দেখিয়েছেন। প্রথমটি ব্যাখ্যাযোগ্য শর্তাধীন গণনা (Interpretable Conditional Computation ) একটি মিশ্র-বিশেষজ্ঞ নেটওয়ার্ক, যেখানে মডেল নিজেই নির্ধারণ করে কোন বৈশিষ্ট্য ও তথ্য গুরুত্বপূর্ণ। চিকিৎসা ক্ষেত্রে যদি রোগীর রোগ নির্ণয় করতে রক্তচাপ ও বয়স যথেষ্ট হয়, তবে মডেল স্বয়ংক্রিয়ভাবে বাকি তথ্য বাদ দেবে। ফলে ব্যাখ্যাও হবে সহজ: সহজেই বলা যাবে সিদ্ধান্তটি এসেছে এই দুটি তথ্য থেকে। দ্বিতীয়টি, Iterative Model Diagnostics, যেখানে মডেলের শেখার প্রতিটি ধাপে মডেলের জ্ঞানের গ্রাফ বিশ্লেষণ করা হয়। কোন ছাত্র কতটা উন্নতি করছে সেটা বোঝার জন্য শিক্ষক যেমন পরীক্ষার পর তার ভুল-সঠিক মিলিয়ে দেখেন,পক্ষপাত চিহ্নিত করে সময়মতো সংশোধন করেন ঠিক তেমনই। এই পদ্ধতি সময়সাপেক্ষ হলেও স্বচ্ছতার ক্ষেত্রে 'স্বচ্ছ ভারত মিশন'কে টেক্কা দিতে পারবে বলেই হয়তো মনে করছেন গবেষকরা।
আরও পড়ুন- কৃত্রিম বুদ্ধিমত্তা: যন্ত্রের যন্ত্রণা নাকি আধুনিক যুগের শাণিত হাতিয়ার?
গবেষকরা বলছেন, “আমরা এমন এক ভবিষ্যৎ চাই যেখানে মানুষ ও মেশিন পরস্পরের ভাষা বুঝবে।” ২০১৮ সালে ইউরোপীয় ইউনিয়নের সাধারণ তথ্য সুরক্ষা নিয়ম এই স্বচ্ছতাকে বাধ্যতামূলক করেছে। কলম্বিয়া বিশ্ববিদ্যালয়ের সিন্থিয়া রুডিনও বলেন যদি আমরা কৃত্রিম বুদ্ধিমত্তাকে বিশ্বস্ত করতে হয়, তবে তাকে শুরু থেকেই ব্যাখ্যাযোগ্য করতে হবে। এই চিন্তাই ব্যাখ্যাযোগ্য কৃত্রিম বুদ্ধিমত্তার নৈতিক ভিত্তি।
কৃত্রিম বুদ্ধিমত্তার এই অধ্যায় মানবিকতার অন্বেষণ। এ যেন বিজ্ঞানের পাশাপাশি দর্শনেরও প্রশ্ন। ভিনিত্রা স্বামী বলছেন, “The next revolution of AI will not be in power, but in transparency.” অর্থাৎ, আগামী যুগের কৃত্রিম বুদ্ধিমত্তা হবে গ্লাস-বক্স এর মত স্বচ্ছ, দৃশ্যমান, যুক্তিযুক্ত।
বিংশ শতাব্দীর শুরুতে অ্যালান টুরিং যখন প্রশ্ন করেছিলেন “ যন্ত্র কি চিন্তা করতে পারে?”, তখন হয়তো তিনি ভাবতেও পারেননি যে একদিন প্রশ্নটি হবে— “ যন্ত্র কি ব্যাখ্যা করতে পারবে?” এ যেন ফ্র্যাঙ্কেনস্টাইনের গল্পেরই নতুন অধ্যায়। যন্ত্র জীবিত হয়েছে, এবার সে নিজের অস্তিত্বের ব্যাখ্যা চাইছে। আজকের এই ব্যাখ্যামুখী কৃত্রিম বুদ্ধিমত্তা আসলে মানব সভ্যতারই আত্মসমালোচনা। যেন এখন আমাদের আয়না— আমরা যেভাবে ভাবি, সে তেমন করে শেখে; আমরা যেমন যুক্তি হারাই, সে তেমন করে অন্ধকারে ঘোরে। তফাত শুধু— সে শিক্ষা নেয়, আমরা অজুহাত খুঁজি।
Whatsapp
