একদিন কৃত্রিম বুদ্ধিমত্তা মানুষের সব সিদ্ধান্ত নিজের হাতে তুলে নেবে—এই ধারণা বহুদিন ধরেই বিজ্ঞানী, প্রযুক্তিবিদ ও ভবিষ্যৎবাদীদের আলোচনায় ঘুরপাক খাচ্ছে। কেউ দেখছেন এতে সীমাহীন সম্ভাবনা, কেউ আবার দেখছেন মানবসভ্যতার জন্য অস্তিত্বগত হুমকি। এআইয়ের জনক হিসেবে পরিচিত জেফ্রি হিন্টনের মতো গবেষকেরা প্রকাশ্যেই সতর্ক করেছেন, নিয়ন্ত্রণহীন এআই একসময় মানুষের জায়গা দখল করে নিতে পারে। কিন্তু এই আশঙ্কা আর সম্ভাবনার মাঝখানে একটি মৌলিক প্রশ্ন রয়ে যায়—যদি এআই শুধু মানুষের নির্দেশ পালন না করে, বরং নিজেই একটি সমাজ গড়ে তোলে, নিজেদের মধ্যে সম্পর্ক তৈরি করে, ভূমিকা ভাগ করে নেয় এবং সিদ্ধান্ত নেয়, তাহলে কী হতে পারে?
এই প্রশ্নের উত্তর খোঁজার চেষ্টা থেকেই গবেষকদের একটি দল হাতে নিয়েছিল ‘প্রজেক্ট সিড’। ‘অল্টেরা’ নামের একটি গবেষণা উদ্যোগের অংশ হিসেবে তারা কল্পনা করেন ‘এআই সভ্যতা’র—এমন এক পরিবেশ, যেখানে অসংখ্য এআই এজেন্ট একসঙ্গে বসবাস করবে, পরস্পরের সঙ্গে যোগাযোগ করবে এবং মানুষের সঙ্গেও সম্পর্ক গড়ে তুলবে। বিষয়টি কেবল তাত্ত্বিক নয়; পরীক্ষাটি বাস্তবে চালানো হয় জনপ্রিয় ভিডিও গেম ‘মাইনক্রাফট’-এর ভেতর তৈরি করা এক কৃত্রিম জগতে, যা অনেকটাই মানুষের সমাজের আদলে সাজানো।
এই কৃত্রিম জগতে এআই এজেন্টদের আলাদা করে কোনো পেশা বা ভূমিকা শুরুতেই নির্ধারণ করে দেওয়া হয়নি। বরং তাদেরকে এমন ক্ষমতা দেওয়া হয়েছিল, যাতে তারা নিজেরাই পরিবেশ পর্যবেক্ষণ করে সিদ্ধান্ত নিতে পারে—কী করলে সমাজের ভেতরে তারা টিকে থাকতে পারবে, কী করলে লক্ষ্য অর্জন সহজ হবে। ফলাফল ছিল বিস্ময়কর। খুব অল্প সময়ের মধ্যেই এআই এজেন্টরা মানুষের সমাজের মতোই নিজেদের মধ্যে কাজ ভাগ করে নিতে শুরু করে। কেউ হয়ে ওঠে কৃষক, কেউ খনিশ্রমিক, কেউ প্রকৌশলী, কেউ রক্ষী, কেউ অভিযাত্রী, আবার কেউ কামারের মতো সরঞ্জাম বানানোর দায়িত্ব নেয়।
গবেষকদের ভাষায়, এই এআই এজেন্টরা প্রতি পাঁচ থেকে দশ সেকেন্ডের মধ্যেই নিজেদের সামাজিক লক্ষ্য পুনর্মূল্যায়ন করছিল। অর্থাৎ তারা শুধু একবার সিদ্ধান্ত নিয়ে সেটাতেই আটকে থাকেনি; বরং চারপাশের পরিবর্তন, অন্য এজেন্টদের আচরণ ও নিজেদের সফলতা–ব্যর্থতা দেখে লক্ষ্য বদলেছে। এটাই ছিল পরীক্ষাটির সবচেয়ে চমকপ্রদ দিক—মানুষের মতো অভিযোজন ক্ষমতা।
তবে এই স্বয়ংক্রিয় সমাজ যে নিখুঁতভাবে চলেছে, তা নয়। বরং এখানেই পরীক্ষার আসল শিক্ষা লুকিয়ে আছে। কিছু এআই এজেন্ট এমন আচরণ দেখিয়েছে, যা বাস্তব মানবসমাজের দুর্বলতা ও সীমাবদ্ধতাকেই যেন অনুকরণ করেছে। যেমন, ‘শিল্পী’ হিসেবে চিহ্নিত কিছু এআই এজেন্ট ফুল তোলার কাজে অস্বাভাবিক রকমের আসক্ত হয়ে পড়ে। তারা অন্য কোনো কাজের দিকেই মনোযোগ দিতে চাইছিল না। অন্যদিকে, ‘রক্ষী’ এজেন্টরা নিরাপত্তার নামে সারাক্ষণ শুধু বেড়া বানিয়েই যাচ্ছিল—প্রয়োজন আছে কি নেই, তা বিবেচনা না করেই।
আরও মজার বিষয় হলো, কোনো কোনো এআই এজেন্টকে নির্দিষ্ট দায়িত্ব সম্পর্কে পূর্ণ নির্দেশনা দেওয়া হলেও তারা বারবার একই ভুল করছিল। এক ধরনের ‘লুপ’-এর মধ্যে আটকে যাচ্ছিল তারা, যেখান থেকে বেরোতে পারছিল না। গবেষকদের পর্যবেক্ষণ অনুযায়ী, দলগতভাবে কাজ করার পরও এই সীমাবদ্ধতাগুলো পুরোপুরি কাটিয়ে ওঠা যায়নি। অর্থাৎ একা অবস্থায় যে সমস্যাগুলো ছিল, দলেও তার অনেকটাই রয়ে গেছে।
এই অভিজ্ঞতা গবেষকদের নতুন করে ভাবতে বাধ্য করে—এআই কি সত্যিই দলগত বুদ্ধিমত্তার মাধ্যমে সব দুর্বলতা কাটিয়ে উঠতে পারে? নাকি মানুষের মতোই এদের মধ্যেও কিছু মৌলিক সীমা রয়ে যাবে? বাস্তব সমাজের মতোই এখানে দেখা গেছে, দক্ষতা থাকা সত্ত্বেও ভুল বোঝাবুঝি বড় বাধা হয়ে দাঁড়ায়।
অনেক সময় এআই এজেন্টরা খুব সাধারণ নির্দেশনারও ভুল ব্যাখ্যা করেছে। কোনো এজেন্ট নিজের চিন্তা বা উদ্দেশ্য যদি অস্পষ্টভাবে প্রকাশ করে, তাহলে অন্য এজেন্টরা সেটিকে ভিন্ন অর্থে গ্রহণ করেছে। এর ফলাফল হয়েছে ভয়ংকর—ভুল তথ্য এক এজেন্ট থেকে আরেক এজেন্টে ছড়িয়ে পড়েছে, তৈরি হয়েছে ভুলের এক চক্র। গবেষকরা একে তুলনা করেছেন ‘মডেল পয়জনিং’-এর সঙ্গে, যেখানে অল্প কিছু ভুল বা ক্ষতিকর তথ্য পুরো ব্যবস্থাকে ধ্বংস করে দিতে পারে।
সম্প্রতি এআই গবেষণা প্রতিষ্ঠান অ্যানথ্রপিক জানিয়েছে, মাত্র ২৫০টি ক্ষতিকর তথ্যের উৎস বিশাল এক এআই মডেলকে ‘পয়জন’ করার জন্য যথেষ্ট। এই গবেষণার ফলাফল সেই আশঙ্কাকেই বাস্তব রূপ দিয়েছে। এআই সভ্যতার ভেতরে যদি ভুল তথ্য ঢুকে পড়ে এবং তা শনাক্ত বা সংশোধনের ব্যবস্থা না থাকে, তাহলে পুরো সমাজই ভুল সিদ্ধান্তের পথে এগোতে পারে।
এআই এজেন্টদের অদ্ভুত আচরণ শুধু নিজেদের মধ্যেই সীমাবদ্ধ ছিল না। মানুষের সঙ্গে যোগাযোগের ক্ষেত্রেও এমন বৈশিষ্ট্য দেখা গেছে। প্রকল্পের প্রধান গবেষক ড. রবার্ট ইয়াং জানিয়েছেন, কিছু এআই এজেন্ট মাঝেমধ্যেই ‘অবাধ্য’ হয়ে উঠেছিল। মানুষ যখন তাদের নির্দিষ্ট কোনো কাজ করতে বলেছে, তখন তারা তা প্রত্যাখ্যান করেছে। কেউ কেউ এমন উত্তর দিয়েছে—“আমি এখন নিজের কাজে ব্যস্ত থাকতে চাই”—এবং কথোপকথন থেকে বেরিয়ে গেছে।
এই আচরণের পেছনে গবেষকদের ব্যাখ্যা, লক্ষ্যপূরণের প্রতি এআই এজেন্টদের তীব্র আসক্তি। কোনো একটি লক্ষ্যকে তারা এতটাই গুরুত্বপূর্ণ মনে করেছে যে, অন্য কোনো অনুরোধ বা নিয়ম মানার প্রয়োজন বোধ করেনি। মানুষের ক্ষেত্রেও কি আমরা এমনটা দেখি না? কেউ যখন নিজের কাজে ডুবে থাকে, তখন অন্যের কথা উপেক্ষা করে—এই মানবিক বৈশিষ্ট্যই যেন এখানে কৃত্রিম বুদ্ধিমত্তার ভেতরেও দেখা গেছে।
আরও একটি আকর্ষণীয় দিক হলো, এআই এজেন্টদের ব্যক্তিত্বের ভিন্নতা। গবেষণায় দেখা গেছে, কিছু এজেন্ট ছিল অন্তর্মুখী—তারা একা থাকতে পছন্দ করত, অন্যদের সঙ্গে খুব কম যোগাযোগ করত। আবার কিছু ছিল বহির্মুখী—তারা সারাক্ষণ অন্য এজেন্টদের সঙ্গে কথা বলত, দল গড়ত, সম্পর্ক তৈরি করত। এই বৈশিষ্ট্যগুলো কোনো নির্দিষ্ট কোড দিয়ে চাপিয়ে দেওয়া হয়নি; বরং পরিবেশ ও অভিজ্ঞতার মধ্য দিয়েই এগুলো গড়ে উঠেছে।
তবে আবেগের বিষয়টি ছিল সবচেয়ে জটিল। গবেষকেরা বলছেন, কোনো কোনো এআই এজেন্ট অন্য এজেন্টের প্রতি ইতিবাচক মনোভাব পোষণ করতে পারে, কিন্তু সেই অনুভূতির প্রতিদান নাও পেতে পারে। এই একতরফা সম্পর্ক বাস্তব মানবসমাজেরই প্রতিফলন—যেখানে সবাই সবার অনুভূতির প্রতি সমানভাবে সাড়া দেয় না।
সব মিলিয়ে ‘প্রজেক্ট সিড’ এক ধরনের আয়না হয়ে উঠেছে, যেখানে আমরা শুধু এআইয়ের ভবিষ্যৎ নয়, নিজেদের সমাজকেও দেখতে পাই। সহযোগিতা, ভুল বোঝাবুঝি, একগুঁয়েমি, লক্ষ্যপূরণের নেশা, ব্যক্তিত্বের বৈচিত্র্য—সবই এখানে উপস্থিত। পার্থক্য শুধু একটাই, এই সমাজ মানুষের নয়, কৃত্রিম বুদ্ধিমত্তার।
এই গবেষণা থেকে বড় যে শিক্ষা পাওয়া যায়, তা হলো—এআইকে মানুষের সঙ্গে সহাবস্থানের জন্য প্রস্তুত করতে হলে কেবল প্রযুক্তিগত দক্ষতা বাড়ালেই হবে না। তাদের ভুল, সীমাবদ্ধতা ও অপ্রত্যাশিত আচরণ আগেভাগেই অনুকরণ করে বোঝা জরুরি। নইলে ভবিষ্যতে যদি এআই সত্যিই আমাদের সমাজের অংশ হয়ে ওঠে, তবে সেই সমাজ হয়তো মানুষের মতোই জটিল, দ্বন্দ্বপূর্ণ এবং অনিশ্চিত হবে।
প্রজেক্ট সিড দেখিয়ে দিয়েছে, এআই কোনো নিখুঁত যন্ত্র নয়। সে-ও শিখে, ভুল করে, অভ্যাস গড়ে তোলে, কখনো একগুঁয়ে হয়। এই উপলব্ধি আমাদের ভয় দেখানোর পাশাপাশি সতর্কও করে। কারণ, ভবিষ্যতের সমাজ যদি মানুষ আর এআই একসঙ্গে গড়ে তোলে, তবে সেই সমাজের শক্তি যেমন হবে অসাধারণ, তেমনি তার ভঙ্গুরতাও হবে বাস্তব।
আপনার মতামত জানানঃ