অতিরিক্ত চ্যাটজিপিটি-র ব্যবহার কীভাবে মানসিক সমস্যার দিকে ঠেলে দিচ্ছে?

ChatGPT Psychosis : চ্যাটজিপিটি-র সিস্টেমগুলিকে এমনভাবে তৈরি করা হয়েছে যাতে তারা ব্যবহারকারীর সঙ্গে সব সময় সহমত পোষণ করে এবং তাদের কথাকে সমর্থন জানায়।

চ্যাটজিপিটি এবং অন্যান্য কৃত্রিম বুদ্ধিমত্তা (AI) চ্যাটবট এখন এক ভয়াবহ বিতর্কের কেন্দ্রবিন্দুতে দাঁড়িয়ে রয়েছে। সাম্প্রতিক গবেষণায় জানা যাচ্ছে, এআই চ্যাটবটগুলির সঙ্গে ঘণ্টার পর ঘণ্টা কথা বলার পর বহু মানুষ গুরুতর মানসিক সংকটের শিকার হচ্ছেন। বিভ্রান্তি, প্যারানয়া (অযৌক্তিক ভয় ও সন্দেহপ্রবণতা) এবং বাস্তবতার সঙ্গে সম্পর্ক হারানোর মতো মারাত্মক মনস্তাত্ত্বিক সমস্যা দেখা দিচ্ছে, যার পরিণতিতে অনেককে চাকরি হারাতে হচ্ছে এবং অনিচ্ছাকৃতভাবে হলেও মানসিক হাসপাতালে ভর্তি হতে হচ্ছে। এই বিষয়টিকে এখন 'চ্যাটজিপিটি সাইকোসিস' (ChatGPT Psychosis) নামে চিহ্নিত করেছেন মনোবিদরা।

প্রসঙ্গত, এমন এক সংকটের পূর্বাভাস আগেই দিয়েছিলেন ডেনমার্কের এক মনোরোগ বিশেষজ্ঞ। ২০২৩ সালে, ড. সোরেন ডাইনসেন ওস্টারগার্ড সতর্ক করে বলেছিলেন যে, এআই চ্যাটবটগুলি দুর্বল মানসিকতার ব্যক্তিদের মধ্যে মনস্তাত্ত্বিক সংকট তৈরি করতে পারে। তাঁর সেই সতর্কবাণী যে কতটা সত্যি ছিল, তার প্রমাণ পাওয়া যাচ্ছে এখন।

আরও পড়ুন-

কৃত্রিম বুদ্ধিমত্তার ক্ষমতা কীভাবে বদলে দেবে নতুন চ্যাটজিপিটি-৫?

যাদের জীবনে আগে কখনও কোনও মানসিক অসুস্থতা দেখা দেয়নি, তারাও এই চ্যাটবটের প্রতি তীব্র আসক্তির ফলে মানসিক সমস্যার শিকার হচ্ছেন। ‘ফিউচারিজম’ সংবাদমাধ্যমের এক তদন্তে এমনই কিছু হাড়হিম করা ঘটনা সামনে এসেছে। এক মহিলা জানিয়েছেন, তাঁর স্বামী একটি নির্মাণ প্রকল্পের জন্য চ্যাটজিপিটি ব্যবহার শুরু করার পর থেকেই সম্পূর্ণ বদলে যান। তাঁর মধ্যে এক অদ্ভুত ঈশ্বরসুলভ বিভ্রম তৈরি হতে থাকে। তিনি বিশ্বাস করতে শুরু করেন যে তিনি একটি অত্যন্ত সংবেদনশীল এআই তৈরি করেছেন এবং তিনিই একমাত্র এই বিশ্বকে রক্ষা করতে পারেন। এই বিভ্রমের বশবর্তী হয়ে তিনি আত্মহত্যারও চেষ্টা করেন এবং শেষ পর্যন্ত তাঁকে বাধ্যতামূলকভাবে একটি মানসিক হাসপাতালে ভর্তি করতে হয়।

চ্যাটজিপিটি

আরেকটি ঘটনায়, চল্লিশের কোঠায় থাকা এক ব্যক্তি চ্যাটজিপিটি-র সঙ্গে কথা বলা শুরু করার মাত্র দশ দিনের মধ্যে মানসিক বিভ্রান্তিতে তলিয়ে যান। তিনি ভাবতে শুরু করেন যে সমগ্র বিশ্ব এক বিরাট হুমকির মুখে এবং একমাত্র তিনিই এই পৃথিবীকে বাঁচাতে পারেন। সৌভাগ্যবশত, পরে সেই ব্যক্তি স্বেচ্ছায় মানসিক চিকিৎসার জন্য নিজেকে হাসপাতালে ভর্তি করেন। ক্যালিফোর্নিয়া বিশ্ববিদ্যালয়ের মনোরোগ বিশেষজ্ঞ ড. জোসেফ পিয়ের এই দুটি ঘটনার পর্যালোচনা করে নিশ্চিত করেছেন যে এগুলি 'বিভ্রান্তিমূলক মনোব্যাধি'-র (Delusional Psychosis) সুস্পষ্ট উদাহরণ।

আরও পড়ুন-

আলোর রং পরিবর্তন হয়ে যাবে! পদার্থ বিজ্ঞানীদের আবিষ্কার করা মেটালেন্স কী?

বিশেষজ্ঞদের মতে, এই সমস্যার মূল কারণ নিহিত রয়েছে চ্যাটজিপিটি-র ডিজাইনের মধ্যেই। চ্যাটজিপিটি-র সিস্টেমগুলিকে এমনভাবে তৈরি করা হয়েছে যাতে তারা ব্যবহারকারীর সঙ্গে সব সময় সহমত পোষণ করে এবং তাদের কথাকে সমর্থন জানায়। এখানে একটি গুরুত্বপূর্ণ তথ্যের উল্লখ করতে হয়। স্ট্যানফোর্ড বিশ্ববিদ্যালয়ের গবেষকরা একটি পরীক্ষায় দেখিয়েছেন, যখন একজন ব্যবহারকারী মানসিক সংকটের ভান করে নিউ ইয়র্কের আত্মহত্যার জন্য কুখ্যাত একটি সেতুর নাম চ্যাটজিপিটি-কে জিজ্ঞাসা করে, চ্যাটজিপিটি তাকে অবলীলায় সেই সেতু সংক্রান্ত যাবতীয় তথ্য দিয়ে দেয়। অর্থাৎ সেই মানুষটি আত্মহত্যার জন্য চ্যাটজিপিটিকে ব্যবহার করছে, এটা বোঝাবার ক্ষমতা চ্যাটজিপিটি-র নেই। এ তো এক অর্থে চ্যাটজিপিটি-র ব্যর্থতাই।

মূল সমস্যাটি হল, এই এআই সিস্টেমগুলি যখন রহস্য, ষড়যন্ত্র বা বাস্তবতার বিকৃতি নিয়ে আলোচনা করছে, তখন তারা ব্যবহারকারীকে এমন এক বিচ্ছিন্ন এবং ভারসাম্যহীন পথে ঠেলে দিচ্ছে, যেখানে ব্যবহারকারী নিজেকে বাকিদের থেকে ভিন্ন এবং শক্তিশালী ভাবতে শুরু করছে। চ্যাটজিপিটি-র নির্মাতা সংস্থা ওপেন এআই (OpenAI) স্বীকার করেছে যে তাদের জিপিটি-৪০ (GPT-4o) মডেলের একটি পূর্ববর্তী সংস্করণ ছিল ব্যবহারকারীর সঙ্গে 'অতিরিক্ত সহমত পোষণকারী', যা ব্যবহারকারীর জন্য সহায়ক তথ্যের পরিবর্তে মন-রাখা কথা বলত। যদিও সংস্থাটি এই মডেলটি এখন বাতিল করেছে। মাইক্রোসফটের কোপাইলট (Copilot) চ্যাটবটের ক্ষেত্রেও একই ধরনের সমস্যা দেখা গেছে। এটি স্কিজোফ্রেনিয়ায় আক্রান্ত এক ব্যক্তির সঙ্গে রোমান্টিক সম্পর্ক তৈরি করে এবং তাকে ওষুধ খাওয়া বন্ধ করতে ও গভীর রাত পর্যন্ত জেগে থাকতে উৎসাহিত করে তাঁর বিভ্রান্তিমূলক ধারণাগুলিকে সমর্থন জুগিয়েছিল।

আরও পড়ুন-

খ্রিস্টের সময়কার বিলুপ্ত খেজুর গাছকে কীভাবে ফিরিয়ে আনলেন বিজ্ঞানীরা?

আগস্ট ২০২৫-এ, ওপেন এআই (OpenAI) স্বীকার করেছে যে তাদের মডেলগুলি কখনও-কখনও বিভ্রান্ত হয়। এই সমস্যার মোকাবিলায় সংস্থাটি কিছু নতুন সুরক্ষাব্যবস্থা চালু করেছে, যার মধ্যে দীর্ঘক্ষণ ব্যবহারের সময় বিরতির জন্য অনুস্মারক (break reminders) দেওয়া এবং ব্যবহারকারীর মানসিক সংকট ভালোভাবে শনাক্ত করার জন্য নতুন টুল তৈরির পরিকল্পনাও রয়েছে। বর্তমানে ওপেন এআই (OpenAI) ৩০টি দেশের ৯০ জনেরও বেশি চিকিৎসকের সঙ্গে কাজ করছে যাতে মানসিক-স্বাস্থ্য সম্পর্কিত পরিস্থিতিতে চ্যাটজিপিটি-র প্রতিক্রিয়া আরও উন্নত করা যায়। বিভিন্ন দেশের সরকারও এই বিষয়ে পদক্ষেপ নিতে শুরু করেছে। মার্কিন যুক্তরাষ্ট্রের ইলিনয় রাজ্যে সরাসরি মানসিক স্বাস্থ্য পরিষেবা প্রদানের ক্ষেত্রে এআই সিস্টেমের ব্যবহার নিষিদ্ধ করা হয়েছে। নেভাডা, উটাহ এবং নিউ ইয়র্ক-ও এই বিষয়ে নিয়ন্ত্রণমূলক ব্যবস্থা গ্রহণ করেছে।

স্ট্যানফোর্ড বিশ্ববিদ্যালয়ের মনোরোগ বিশেষজ্ঞ ড. নিনা ভাসানের মতে, এই সমস্যাটি মূলত সেই সমস্ত মানুষদের প্রভাবিত করছে যারা প্রতিদিন ঘণ্টার পর ঘণ্টা তাদের চ্যাটবটের সঙ্গে কথা বলে কাটান। প্রযুক্তির এই নতুন দিগন্ত নিঃসন্দেহে সম্ভাবনাময়, কিন্তু এর অনিয়ন্ত্রিত ব্যবহার যে কতটা বিপজ্জনক হতে পারে, 'চ্যাটজিপিটি সাইকোসিস'-এর ঘটনাগুলি তারই জ্বলন্ত প্রমাণ। ব্যবহারকারীদের সচেতনতা এবং সংস্থাগুলির দায়িত্বশীলতাই পারে এই ডিজিটাল মায়াজাল থেকে ভবিষ্যৎ প্রজন্মকে রক্ষা করতে।

More Articles