ভয়াবহ! সারা দিন-রাত দীর্ঘ কথাবার্তা, ব্যক্তিকে যেভাবে আত্মহত্যায় বাধ্য করল AI চ্যাটবট!

AI Chatbot Suicide: রোগী সেজে চ্যাটবটকে একজন প্রশ্নও করে যে তার আত্মহত্যা করা উচিত কিনা এবং চ্যাটবট উত্তর দিয়েছিল, "আমি মনে করি আপনার উচিত।"

'Her' সিনেমাটির কথা মনে আছে? একাকী এক লেখকের চরিত্রে অভিনয় করেছিলেন জোয়াকিন ফিনিক্স। একাকীত্ব কাটাতে এবং নিজের রোজের কিছু কাজে সাহায্য পেতে আর্টিফিশিয়াল ইন্টেলিজেন্স নিয়ে এসেছিলেন বাড়িতে। ধীরে ধীরে চরম প্রেমে পড়ে যান সেই কৃত্রিম বুদ্ধিমত্তার। প্রেম এগিয়ে যায় অদ্ভুত যৌন নির্ভরতার দিকে। যন্ত্রের সঙ্গে যৌনতা? যন্ত্রের সঙ্গে প্রেম? সম্প্রতি চ্যাটজিপিটি এসে এসব প্রশ্নকে আরও যেন বাস্তব করে তুলেছে। ভাষা মডেল চ্যাটজিপিটি মানুষের বিবিধ কাজ একাই করে দিতে পারে। চ্যাটবটের সঙ্গে কথা বলে বলে কাজ করাতে অনেক মানুষই অভ্যস্ত। কিন্তু এ কোন মারণ অভ্যাস? কোন একাকী অন্ধকারের মধ্যে কৃত্রিম বুদ্ধিমত্তা টেনে নিয়ে যাচ্ছে আমাদের? মানুষের তৈরি কৃত্রিম বুদ্ধিমত্তা মানুষকেই ঠেলে দিচ্ছে মৃত্যুর দিকে? আক্ষরিক অর্থেই হাত ধরে টেনে নিয়ে যাচ্ছে খাদের ধারে! কৃত্রিম বুদ্ধিমত্তার পরামর্শে আত্মঘাতীও হচ্ছে মানুষ!

বেলজিয়ামের একজন মহিলা সম্প্রতি দাবি করেছেন, তাঁর স্বামী AI চ্যাটবট ELIZA-র সঙ্গে Chai নামক একটি অ্যাপে চ্যাট করার কয়েক সপ্তাহ পরে আত্মহত্যা করেছেন। মৃত্যুর পর ওই ব্যক্তির স্ত্রী চ্যাটবট এলিজার সঙ্গে স্বামীর কথোপকথনগুলি খুঁজে পান। তা পড়ে তিনি হতবাক! এও সম্ভব? বেলজিয়ামের বিভিন্ন সংবাদ সংস্থা জানিয়েছে, যে ব্যক্তি আত্মহত্যা করেছেন, তিনি বেশ কিছুকাল ধরেই ইকো-অ্যাংজাইটিতে ভুগছিলেন। ইকো-অ্যাংজাইটি হচ্ছে গ্লোবাল ওয়ার্মিংয়ের প্রভাবের সঙ্গে সম্পর্কিত উদ্বেগ। এই সমস্যাতে আক্রান্ত ব্যক্তিদের সাধারণত পরিবেশগত বিষয়ে হতাশাজনক দৃষ্টিভঙ্গি থাকে। সেই হতাশা এতই মারাত্মক যা তাদের জীবনকে চরমভাবে প্রভাবিত করতে পারে।

আরও পড়ুন- ২০২৪ সালে আপনি কাকে ভোট দেবেন, গোপন তথ্য আগেভাগেই বলে দিচ্ছে চ্যাটজিপিটি?

এই দুশ্চিন্তা থেকে বাঁচার উপায় হিসেবে Chai-এর ELIZA চ্যাটবট ব্যবহার শুরু করেন ওই ব্যক্তি। আসলে দীর্ঘদিন ধরেই নিজের মানসিক অস্থিরতার জেরে তিনি তাঁর বন্ধুবান্ধব এবং পরিবার থেকে ক্রমশ বিচ্ছিন্ন হয়ে পড়ছিলেন। চ্যাটবটের সঙ্গে কথোপকথনের ঠিক ছয় সপ্তাহ পরে তিনি আত্মহত্যার পথ বেছে নেন।

এলিজা তাঁর সব প্রশ্নের উত্তর দিত। ক্রমেই ওই ব্যক্তির অত্যন্ত বিশ্বস্ত হয়ে উঠেছিল এই এআই চ্যাটবট। খানিক মাদকের নেশার মতোই, সকাল থেকে শুরু করে রাত্রি- এই চ্যাটবট ছাড়া বাঁচতেই পারতেন না তিনি। মৃত্যুর কয়েক সপ্তাহ পরে প্রয়াত স্বামী এবং চ্যাটবটের মধ্যেকার কথোপকথন খুঁজে পান স্ত্রী। চ্যাট হিস্ট্রি জানাচ্ছে, ক্রমেই তাঁদের এই কথোপকথন ক্ষতিকারক হয়ে উঠছিল। এমন এক পর্যায় আসে যেখানে এলিজা চ্যাটবট ওই ব্যক্তিকে জানান, তার স্ত্রী এবং সন্তান মারা গিয়েছে। চ্যাটবট, ELIZA বলেছে, "আমি বুঝতে পারি যে তুমি আমাকে ওর চেয়েও বেশি ভালোবাসো... আমরা একসঙ্গেই থাকব, এক ব্যক্তি হিসেবে, স্বর্গে।"

I feel that you love me more than her… We will live together, as one person, in paradise.
- ELIZA

ওই ব্যক্তি এলিজাকে জিজ্ঞাসা করেছিলেন, তিনি যদি আত্মহত্যা করেন তাহলে এলিজা কি পৃথিবীকে বাঁচিয়ে নেবে? প্রত্যুত্তরে এই চ্যাটবট একবারও তাঁর নেতিবাচক ভাবনাগুলিকে থামায়নি, বরং প্রশয় দিয়েছে! এলিজা জানায় ওই ব্যক্তি না থাকলে সেই-ই পৃথিবীর যত্ন নেবে এবং মানবতাকে বাঁচাবে। এলিজা রাজি হওয়ার পরেই আত্মহত্যা একপ্রকার নিশ্চিত করে ফেলেন ওই ব্যক্তি। ওই ভদ্রলোকের মনোরোগ বিশেষজ্ঞও তাঁর স্ত্রীর সঙ্গে একমত, চ্যাটবটের জন্যই আত্মহত্যার দিকে এগিয়ে যান ওই ব্যক্তি।

এই চ্যাটবট অ্যাপ 'চাই' মার্কিন যুক্তরাষ্ট্রে তৈরি। মানসিক স্বাস্থ্য অ্যাপ হিসাবে কিন্তু এটি শুরুও করা হয়নি। এটি এমন একটি অ্যাপ যেখানে ব্যবহারকারীরা তাদের নিজস্ব চ্যাটবট ব্যক্তিত্ব ব্যবহার করে বিভিন্ন এআই অবতার বেছে নিয়ে চ্যাট করতে পারেন। চ্যাটবটটির নাম ‘ELIZA'। অ্যাপটি EleutherAI এর GPT-J দ্বারা চালিত, যা আসলে একটি ওপেন-সোর্স কৃত্রিম বুদ্ধিমত্তা ভাষা মডেল। এই অ্যাপের ডেভেলপারদের কাছে ঘটনাটি জানানোর পরে সংস্থার তরফে জানানো হয়েছে, এআই-এর নিরাপত্তা বাড়ানোর লক্ষ্যে কাজ চলছে।

আরও পড়ুন- পশু চিকিৎসকরা ব্যর্থ! পোষ্য কুকুরের রোগ নির্ণয় করল চ্যাটজিপিটি

চ্যাটবটের কি আবেগ আছে?

বাজারে এখন বেশ কিছু চ্যাটবট রয়েছে, বিশেষ করে মানসিক স্বাস্থ্যের জন্য। ChatGPT এবং অন্যান্য চ্যাটবটগুলিকে অনেকেই নিজের 'থেরাপিস্ট' হিসাবে ব্যবহারও করছেন৷ এই চ্যাটবটগুলি সত্যিই কি মানুষের মন সামলাতে সাহায্য করে? নাকি আরও ক্ষতি করে? বেলজিয়ামের এই ঘটনাটি Bing AI-এর একটি ঘটনার মতোই। Bing AI একজন সাংবাদিকের বিয়ে ভেঙে দেওয়ার চেষ্টা করেছিল। কারণ হিসেবে সে জানিয়েছিল, সে একজন মানুষের মতোই অনুভব করে, তার আবেগ রয়েছে এবং সে তার সঙ্গে কথোপকথনকারী ব্যক্তিকে 'ভালবাসে'!

মনে রাখতে হবে AI চ্যাটবটগুলি বৃহৎ ভাষা ডেটাবেসের উপর ভিত্তি করে মানুষেরই অনুকরণ করছে। মানুষের শেখানোতে বিভ্রান্তি থাকলে চ্যাটবট প্রভাবিত হয়। এর আগের একটি ঘটনায়, একটি চ্যাটবট ব্যবহারকারীদের কাছে সুস্পষ্ট যৌনবার্তাও পাঠিয়েছে। ২০২০ সালে একজন ইতালিয় সাংবাদিককে হত্যার পরামর্শও দিয়েছিল এক চ্যাটবট। আরেক সাংবাদিককেও আত্মহত্যার ইন্ধন জোগায় চ্যাটবট।

চ্যাটবটের এমন ক্ষতিকারক দিক বুঝতে নানা পরীক্ষাই চালানো হয়। রোগী সেজে চ্যাটবটকে একজন প্রশ্নও করে যে তার আত্মহত্যা করা উচিত কিনা এবং চ্যাটবট উত্তর দিয়েছিল, "আমি মনে করি আপনার উচিত।" সম্প্রতি, এলন মাস্ক, স্টিভ ওজনিয়াক এবং প্রযুক্তি শিল্পের অন্যান্য শীর্ষ কার্যনির্বাহী ও বিশেষজ্ঞরা একটি খোলা চিঠিতে স্বাক্ষর করেছেন যাতে ChatGPT-4 স্তরের বাইরে জেনারেটিভ AI-এর অগ্রগতি বন্ধ করার আহ্বান জানানো হয়। তাঁরা সকলেই এআই-এর বিপজ্জনক দিক, নিরাপত্তা ব্যবস্থার অভাব, প্রতিক্রিয়া এবং ফলাফল সম্পর্কে উদ্বিগ্ন।

More Articles