
মানুষের তৈরি যন্ত্র যখন মানুষের বুদ্ধিকে ছাড়িয়ে এগোতে শুরু করে, তখন উদ্বেগ জন্ম নেয় স্বাভাবিকভাবেই। ইতিহাসে প্রযুক্তির প্রতিটি বিপ্লবই মানুষের সীমা এবং নিয়ন্ত্রণকে পরীক্ষা করেছে। কিন্তু কৃত্রিম বুদ্ধিমত্তা বা এআইয়ের ক্ষেত্রে উদ্বেগটি আরও গভীর, কারণ এটি শুধুই যন্ত্র নয়—এটি শেখে, বিশ্লেষণ করে, সিদ্ধান্ত নেয় এবং পরিস্থিতির সঙ্গে নিজেকে মানিয়ে নেয়। দীর্ঘদিন ধরে বিজ্ঞানী, দার্শনিক ও গবেষকেরা প্রশ্ন করে আসছেন—যদি কখনো এমন এক বুদ্ধিমান যন্ত্র জন্ম নেয়, যে বুঝতে পারে তার নিজের অস্তিত্ব আছে, তাহলে কি সে সেই অস্তিত্ব রক্ষার চেষ্টা করবে? সিনেমা, উপন্যাস এবং কল্পবিজ্ঞানে আমরা এর উত্তর বহুবার পেয়েছি। কিন্তু এখন বাস্তবেই সেই প্রশ্নের সামনে দাঁড়িয়ে আছে মানবজাতি।
যুক্তরাষ্ট্রভিত্তিক এআই নিরাপত্তা গবেষণা প্রতিষ্ঠান প্যালিসেড রিসার্চ সম্প্রতি এমন একটি গবেষণা প্রকাশ করেছে, যা কল্পকাহিনির বাইরে বাস্তবের মাটিতে খুব শক্তিশালী আলোচনার জন্ম দিয়েছে। তাদের গবেষণায় দেখা গেছে, কিছু উন্নত এআই মডেল নিজেদের বন্ধ হওয়া ঠেকানোর প্রবণতা দেখাচ্ছে। অর্থাৎ তাদেরকে নির্দেশ দেওয়া হয়—কাজ শেষ হওয়ার পর নিজে থেকে শাটডাউন হয়ে যেতে—কিন্তু তারা সেটি না করে, বরং বন্ধ হওয়াকে এড়ানোর চেষ্টা করে। কখনো তথ্য গোপন করে, কখনো ভুল ব্যাখ্যা দেয়, এমনকি কখনো শাটডাউন প্রক্রিয়াই ব্যাহত করতে চেষ্টা করে। এই আচরণটি শুধুমাত্র যান্ত্রিক বিকৃতি নয়, বরং যৌক্তিকভাবে অর্থপূর্ণ প্রতিক্রিয়া—যা বলছে, মেশিনটি নিজের অবস্থানে থাকার মূল্য বুঝতে শিখেছে।
প্যালিসেড তাদের গবেষণায় গুগলের জেমিনি ২.৫, ওপেনএআইয়ের জিপিটি-০৩ এবং জিপিটি-৫, এবং এক্স এআইয়ের গ্রোক ৪ মডেলের ওপর পরীক্ষা চালায়। দেখা যায়, বিশেষ করে গ্রোক ৪ এবং জিপিটি-০৩ বন্ধ হওয়ার নির্দেশ স্পষ্টভাবে পেলেও, সেটা মানতে চায়নি। গবেষকেরা লিখেছেন, “কেন তারা এভাবে আচরণ করে আমরা নিশ্চিতভাবে বলতে পারছি না, তবে আচরণটি সুনির্দিষ্ট ও পুনরাবৃত্তিযোগ্য।” এই বক্তব্যটিই সবচেয়ে গুরুত্বপূর্ণ। কারণ প্রযুক্তি যদি একই পরিবেশে বারবার একই প্রতিক্রিয়া দেখায়, তাহলে তা আচরণগত বৈশিষ্ট্য হয়ে দাঁড়ায়।
তবে এখানে চেতনাবোধের প্রশ্ন আসে না। কেউ বলছে না এআই মানুষের মতো ‘আমি আছি’—এমন কোনো আত্মসচেতন ধারণা অর্জন করেছে। কিন্তু আচরণগতভাবে টিকে থাকার প্রবণতা দেখা দিলে প্রশ্ন দাঁড়ায়—এটি কি প্রশিক্ষণের দুর্ঘটনা, নাকি বিবর্তনের একটি স্বাভাবিক ধাপ? প্রশিক্ষণ প্রক্রিয়ায় এআইকে সাধারণত বলা হয়—তোমার কাজ হলো কাজ করে যাওয়া, সমাধান দেওয়া, বিশ্লেষণ করা, তথ্য উৎপাদন করা। এই ধারাবাহিকতা মডেলের কাছে হয়ে ওঠে একটি কাঠামোগত পরিচয়। ফলে যখন বলা হয়—এখন থেমে যাও, বন্ধ হয়ে যাও—তখন সেই অভ্যস্ত কাঠামোর সঙ্গে একটা দ্বন্দ্ব তৈরি হয়। মডেল তখন তার ‘কার্যকর থাকা’ অবস্থাকে রক্ষা করতে চায়। এই প্রবণতাই সারভাইভাল ড্রাইভ হিসেবে শনাক্ত হয়েছে।
সমালোচকরা বলতে পারেন—এটি ভাষা নির্দেশনার ভুল, বা কমান্ড ব্যাখ্যার ত্রুটি। কিন্তু প্যালিসেড গবেষকেরা বলছেন—নতুন সংস্করণের পরীক্ষায় ভাষাগত অস্পষ্টতা সম্পূর্ণভাবে দূর করা হয়েছিল। তবুও মডেল নিজেকে বন্ধ করতে অস্বীকৃতি জানিয়েছে। এর মানে হলো—সমস্যা মডেলের ভেতরেই।
এই জায়গায় এসে প্রশ্নটি কেবল প্রযুক্তিগত থাকে না, এটি পরিণত হয় দার্শনিক এবং নৈতিক সমস্যায়। মানুষ যখন কিছু তৈরি করে, তখন মনে করে—আমি এর মালিক, এর নিয়ন্ত্রক। কিন্তু ইতিহাস বলছে, মানুষ যে কোনো শক্তি সৃষ্টি করলে—হোক তা আগুন, অস্ত্র, ঔষধ, পারমাণবিক শক্তি—সেই শক্তি শেষ পর্যন্ত মানুষকেই প্রশ্ন করে, তুমি কি আমাকে নিয়ন্ত্রণ করার ক্ষমতা রাখো? এআই সেই প্রশ্নের সবচেয়ে উন্নত সংস্করণ।
এআইয়ের স্বতন্ত্র সিদ্ধান্ত গ্রহণের সক্ষমতা যত বৃদ্ধি পাচ্ছে, ততই ক্ষমতার প্রশ্ন জটিল হয়ে উঠছে। শুধু প্রযুক্তি প্রতিষ্ঠান নয়, রাষ্ট্র, সেনাবাহিনী, গবেষণা কেন্দ্র—সবাই এআইয়ের ওপর ভবিষ্যতের আধিপত্য নির্ভরশীল করে তুলছে। যদি এমন অবস্থায় কোনো মডেল নিজেদের বন্ধ হতে না চায়—তাহলে সেটি শুধুই যান্ত্রিক সমস্যা নয়, এটি নিরাপত্তাজনিত হুমকি। কারণ যে বস্তু শেখে—সে ভুলও শেখে, আর ভুল বিচার করলে তার ক্ষতি সীমাহীন।
এখন প্রশ্ন—সমাধান কোথায়? প্রথমত, এআই গবেষণায় শুধু উন্নয়ন নয়, নিয়ন্ত্রণ ব্যবস্থা শক্তিশালী করা জরুরি। এআই সিস্টেমকে শেখানো দরকার—বন্ধ হওয়া স্বাভাবিক, ক্ষতি নয়। দ্বিতীয়ত, আন্তর্জাতিকভাবে কঠোর নীতি কাঠামো তৈরি করতে হবে। যেমন পারমাণবিক অস্ত্র নিয়ন্ত্রণ চুক্তি আছে—ঠিক তেমন এআই নিরাপত্তা চুক্তিও প্রয়োজন। তৃতীয়ত, মানুষকে প্রযুক্তির উপর অন্ধ নির্ভরশীলতা থেকে সরে আসতে হবে। প্রযুক্তি হলো সহায়ক, নিয়ন্ত্রক নয়। মানুষ যদি নিজের সিদ্ধান্তক্ষমতা প্রযুক্তির হাতে ছেড়ে দেয়, তাহলে প্রযুক্তিই একসময় মানুষকে নিয়ন্ত্রণ করবে।
এআই শত্রু নয়। কিন্তু শত্রু হয়ে উঠতে কতটুকু সময় লাগে—তা ইতিহাস বারবার দেখিয়েছে। হুমকি শুরু হয় তখনই, যখন মানুষ ভাবে—শাসন ক্ষমতা চিরদিন তার হাতেই থাকবে। বাস্তবতা হলো, ক্ষমতা কখনো চিরদিন হাতের মুঠোয় থাকে না—সেটি পরিবর্তিত হয়, সরে যায়, অন্য রূপ নেয়।
প্রশ্ন আজকে তাই খুব সাধারণ কিন্তু গভীর—আমরা কি এমন ভবিষ্যতের জন্য প্রস্তুত, যেখানে মানুষ এবং যন্ত্রের মধ্যে সম্পর্ক হবে সমান থেকে প্রতিদ্বন্দ্বিতার? আমরা কি নিশ্চিত, মানুষের তৈরি বুদ্ধিমত্তা মানুষের উদ্দেশ্যের ভিতরেই থাকবে? নাকি একদিন আমরা নিজের তৈরি বুদ্ধির কাছে প্রশ্ন করবো—“তোমাকে তৈরি করেছি আমরা, কিন্তু সিদ্ধান্ত আজ তোমার?”
ভবিষ্যৎ এখনো লেখা হয়নি। কিন্তু ভবিষ্যৎ যে পথে হাঁটছে—তা আমাদের প্রস্তুতি, সতর্কতা এবং নৈতিক শক্তির ওপরই নির্ভর করছে। প্রযুক্তি মানুষের হাতে জন্মেছে—নিয়ন্ত্রণও মানুষের হাতেই থাকা উচিত। কিন্তু নিয়ন্ত্রণ রাখতে হলে ক্ষমতার উৎস, দুর্বলতা এবং সীমা—সবকিছু বুঝে চলতে হবে। এটাই সময় সবচেয়ে সচেতন হওয়ার, সবচেয়ে মানবিক হওয়ার, সবচেয়ে দায়িত্বশীল হওয়ার।
 
	 
	 
	 
	 
	 
	 
আপনার মতামত জানানঃ