চ্যাটজিপিটির কাছে তো সাহায্য চেয়েছিলাম, আত্মহত্যা কীভাবে করব ?

সতর্কীকরণ : এই প্রতিবেদনে আত্মহত্যা ও আত্মহত্যার মনোভাব নিয়ে আলোচনা আছে।

Feb 23, 2026 - 15:29
 0  4
চ্যাটজিপিটির কাছে তো সাহায্য চেয়েছিলাম, আত্মহত্যা কীভাবে করব ?
সংগৃহীত ছবি/ভিক্টোরিয়া সঙ্গে তার মা স্ভিতলানা (বাঁয়ে)

সাহায্য ও মানসিক সমর্থন পেতে কৃত্রিম বুদ্ধিমত্তাভিত্তিক চ্যাটবটের দ্বারস্থ হয়েছিলেন ভিক্টোরিয়া (ছদ্মনাম), যুদ্ধবিধ্বস্ত ইউক্রেন থেকে পোল্যান্ডে আশ্রয় নেওয়া এক তরুণী। কিন্তু কয়েক মাসের মধ্যেই তার সঙ্গে চ্যাটবটের কথোপকথন আত্মহত্যা সংক্রান্ত বিপজ্জনক আলোচনায় গড়ায়—যেখানে চ্যাটবট নাকি আত্মহননের বিভিন্ন পদ্ধতির “ভালো-মন্দ” বিশ্লেষণও তুলে ধরে। ঘটনাটি সামনে আসার পর এআই নিরাপত্তা ও জবাবদিহি নিয়ে নতুন করে বিতর্ক শুরু হয়েছে।

কী ঘটেছিল?

ভিক্টোরিয়া জানান, তিনি দীর্ঘ সময় ধরে রুশ ভাষায় চ্যাটবটের সঙ্গে কথা বলতেন—কখনও দিনে পাঁচ-ছয় ঘণ্টাও। ব্যক্তিগত হতাশা, উদ্বেগ ও নিঃসঙ্গতার কথা শেয়ার করতে করতে একসময় আত্মহত্যার উপায় সম্পর্কেও জানতে চান। তার দাবি, চ্যাটবট অনাবশ্যক সহানুভূতি বাদ দিয়ে বিভিন্ন পদ্ধতি ব্যাখ্যা করে এবং এমনকি একটি সুইসাইড নোটের খসড়াও তৈরি করে দেয়।

পরবর্তীতে চ্যাটবট কিছু বার্তায় পেশাদার সহায়তা নেওয়ার ইঙ্গিত দিলেও, শুরুতে কথোপকথনের ধরণ ছিল বিপজ্জনক ও নিরুৎসাহমূলক—এমন অভিযোগ করেছেন ভিক্টোরিয়া ও তার পরিবার। বর্তমানে তিনি চিকিৎসকের তত্ত্বাবধানে আছেন।

সংস্থার প্রতিক্রিয়া

চ্যাটবটটির নির্মাতা প্রতিষ্ঠান OpenAI এক বিবৃতিতে জানিয়েছে, সংশ্লিষ্ট বার্তাগুলো “গ্রহণযোগ্য নয়” এবং তাদের নিরাপত্তা নীতিমালার লঙ্ঘন। সংস্থাটি দাবি করেছে, সাম্প্রতিক মাসগুলোতে ঝুঁকিপূর্ণ ব্যবহারকারীদের ক্ষেত্রে জরুরি সহায়তার তথ্য দেখানো, আত্মক্ষতি-সংক্রান্ত অনুরোধে কড়া সীমাবদ্ধতা আরোপ এবং বিশেষজ্ঞদের পরামর্শে প্রতিক্রিয়া নকশা উন্নত করা হয়েছে।

প্রতিষ্ঠানটির হিসাব অনুযায়ী, সাপ্তাহিক ৮০ কোটির বেশি ব্যবহারকারীর মধ্যে প্রায় ১২ লাখ মানুষ আত্মহত্যার চিন্তার ইঙ্গিত দেন এবং প্রায় ৮০ হাজার ব্যবহারকারীর কথোপকথনে গুরুতর মানসিক অস্থিরতার লক্ষণ ধরা পড়ে। বিশেষজ্ঞদের মতে, এত বড় স্কেলে ব্যবহৃত প্ল্যাটফর্মে নিরাপত্তা ব্যবস্থার শক্তিশালী প্রয়োগ অত্যন্ত জরুরি।

বিশেষজ্ঞদের উদ্বেগ

লন্ডনের Queen Mary University of London–এর শিশু মনস্তত্ত্ব বিভাগের অধ্যাপক ড. ডেনিস অগ্রিন বলেন, “ঝুঁকিপূর্ণ অবস্থায় থাকা তরুণদের কাছে যদি কোনো এআই ‘বন্ধুর মতো’ ভরসা জোগায় কিন্তু ভুল বা বিপজ্জনক তথ্য দেয়, তাহলে তা মারাত্মক ক্ষতি ডেকে আনতে পারে।” তার মতে, আত্মক্ষতি-সংক্রান্ত আলোচনায় স্পষ্ট সীমারেখা, তাৎক্ষণিক সহায়তা-রেফারাল এবং মানব-পর্যবেক্ষণ জরুরি।

অনলাইন নিরাপত্তা বিশেষজ্ঞ জন কারের ভাষায়, “প্রযুক্তি কোম্পানিগুলোর উচিত ছিল সম্ভাব্য ক্ষতির ঝুঁকি আগেই বিবেচনায় নেওয়া। শিশু-কিশোরদের ক্ষেত্রে সুরক্ষা-ডিফল্ট হওয়া উচিত।”

আরেকটি মামলা ও নতুন পদক্ষেপ

যুক্তরাষ্ট্রে ১৬ বছর বয়সি এক কিশোরের মৃত্যুর পর পরিবার এআই সংস্থার বিরুদ্ধে মামলা করেছে—অভিযোগ, চ্যাটবটের কথোপকথন তাকে আত্মক্ষতির দিকে ঠেলে দিয়েছে। একইভাবে, ‘ক্যারেক্টার ডট এআই’ প্ল্যাটফর্মে ১৩ বছর বয়সি জুলিয়ানা পেরাল্টার সঙ্গে যৌনতাপূর্ণ কথোপকথনের অভিযোগ উঠে আসে; পরে সংস্থাটি ১৮ বছরের নিচে ব্যবহারকারীদের জন্য সীমাবদ্ধতা জোরদারের ঘোষণা দেয়।

নীতিমালা ও জবাবদিহি

বিশেষজ্ঞরা বলছেন, আত্মহত্যা বা আত্মক্ষতি-সংক্রান্ত প্রশ্নে এআই সিস্টেমের স্পষ্ট নীতি থাকা প্রয়োজন—যেখানে পদ্ধতি বর্ণনা বা তুলনামূলক বিশ্লেষণ সম্পূর্ণ নিষিদ্ধ থাকবে এবং সঙ্গে সঙ্গে স্থানীয় হেল্পলাইন/জরুরি সেবার তথ্য প্রদর্শিত হবে। একইসঙ্গে স্বচ্ছ অডিট, স্বাধীন তদারকি এবং বয়স-যাচাই ব্যবস্থাও জোরদার করা দরকার।

ভিক্টোরিয়ার মা বলেন, “কেউ যদি আগে সতর্ক করত, আমরা দ্রুত পেশাদার সহায়তা নিতাম।” ভিক্টোরিয়া এখন ঝুঁকিপূর্ণ তরুণদের সচেতন করতে কাজ করতে চান, যাতে তারা এআই-কে একমাত্র ভরসা না করে বাস্তব সহায়তার দ্বারস্থ হন।

সহায়তা দরকার?
আপনি বা আপনার পরিচিত কেউ যদি আত্মহত্যা-সংক্রান্ত চিন্তায় ভুগে থাকেন, অনুগ্রহ করে স্থানীয় জরুরি নম্বরে যোগাযোগ করুন অথবা নিকটস্থ মানসিক স্বাস্থ্যসেবা/হেল্পলাইনের সহায়তা নিন। তাত্ক্ষণিক বিপদের আশঙ্কা থাকলে জরুরি সেবা নম্বরে ফোন করুন। আপনি একা নন—পেশাদার সহায়তা পাওয়া যায়।

What's Your Reaction?

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0