যুদ্ধের একটি নতুন যুগের দ্বারপ্রান্তে দাঁড়িয়ে আছে মানব সভ্যতা। কৃত্রিম বুদ্ধিমত্তার দ্রুত বিকাশের এই যুগ সংঘাতের ভবিষ্যতকে দ্রুত গতিতে পরিবর্তন করছে। যেখানে একটি রোবট কারো আদেশ বা পরিচালনা ছাড়াই যে কোনো ধরনের বিপদ মোকাবেলায় প্রয়োজনীয় পদক্ষেপ নিতে পারে। কারণ প্রতিপক্ষ শনাক্ত, লক্ষ্যবস্তু নির্ধারণ, প্রতিপক্ষকে আক্রমণ বা গুলি করে হত্যার সিদ্ধান্ত নিতে পারে রোবট।
অফিসিয়ালি এই রোবটগুলোর নাম ‘প্রাণঘাতী স্বয়ংক্রিয় অস্ত্র ব্যবস্থা’ (লিথাল অটোনোমাস উইপন সিস্টেমস- এলএডব্লিউএস) হলেও ‘কিলার রোবট’ নামেই এসব অস্ত্র বেশি পরিচিত। ইতোমধ্যেই যুক্তরাষ্ট্র, চীন, যুক্তরাজ্য, ভারত, ইরান, ইসরায়েল, দক্ষিণ কোরিয়া, রাশিয়া, তুরস্কসহ বেশ কয়েকটি দেশ এই ধরনের অস্ত্র তৈরিতে প্রচুর বিনিয়োগ করেছে।
জাতিসংঘের একটি প্রতিবেদন অনুসারে, তুরস্ক নির্মিত কার্গু-২ মডেলের ড্রোনগুলো সম্পূর্ণ স্বয়ংক্রিয়ভাবে কার্যক্রম পরিচালনায় সক্ষম। পূর্বেও ২০২০ সালে তুর্কি-লিবিয়া সংঘর্ষে লিবিয়ায় যোদ্ধাদের আক্রমণে এ ড্রোন ব্যবহার করে ছিলো তুরস্ক।
স্বয়ংক্রিয় এ ড্রোনগুলি ইউক্রেন যুদ্ধেও গুরুত্বপূর্ণ ভূমিকা পালন করছে। রাশিয়া ও ইউক্রেন উভয় দেশই তাদের শত্রুদের পরাস্ত করতে এ ড্রোন ব্যবহার করছে।
ইতোমধ্যেই বিশ্বব্যাপী বিশেষজ্ঞ, অ্যাক্টিভিস্ট এবং কূটনীতিকদের মধ্যে এই ধরনের মেশিন ব্যবহার, এর উপকারিতা এবং ঝুঁকি নিয়ে তীব্র বিতর্কের সৃষ্টি হয়েছে।
ক্রমবর্ধমান এই বিভক্ত ভূ-রাজনৈতিক ল্যান্ডস্কেপে, আন্তর্জাতিক সম্প্রদায় কি এই অস্ত্রগুলির বিষয়ে কোন ঐক্যমতে পৌঁছাতে পারবে? এই ধরনের অস্ত্রে সৃষ্ট নৈতিক, আইনগত এবং প্রযুক্তিগত হুমকির কারণে কি যুদ্ধক্ষেত্রে নামার আগেই এদের নিষিদ্ধ করা হতে পারে? নানা ঝুঁকির কারণে এই অস্ত্রগুলোর ওপর নিষেধাজ্ঞা দেয়াই কি বাস্তবসম্মত বিকল্প?
রোবটিক্স ক্ষেত্রের শীর্ষস্থানীয় বিশেষজ্ঞদের কাছে এই প্রশ্নগুলি করা হলে তারা উত্তরে বলেন, স্বয়ংক্রিয় অস্ত্র ব্যবস্থার ওপর সম্পূর্ণ নিষেধাজ্ঞা দেয়ার মতো সিদ্ধান্তে এখনই কোনো দেশ আগ্রহী হবে না। তবে নানা ধরনের মতবিরোধ থাকতেই পারে। তাই বলে এ অস্ত্র পারমাণবিক অস্ত্রের মত ঝুঁকিপূর্ণ না হওয়ায় পারমাণবিক অস্ত্রের মতো কঠোর নিষেধাজ্ঞার মুখেও পরবে না।
তৃতীয় বিশ্বযুদ্ধের ঝুঁকি
গত মার্চের শেষের দিকে, লন্ডন-ভিত্তিক চ্যাথাম হাউসের গবেষণা সহযোগী ইয়াসমিন আফিনা, যুক্তরাজ্যের পার্লামেন্টের দ্বিতীয় চেম্বার হাউস অফ লর্ডসের কাছে একটি মর্মান্তিক ঘটনার বর্ণনা করেছিলেন, যে বর্ণনায় তিনি জানান কীভাবে মার্কিন জাতীয় নিরাপত্তা সংস্থা (এনএসএ) একবার ভুল করে একজন আল জাজিরা সাংবাদিককে আল-কায়েদার সদস্য বলে চিহ্নিত করেছিল।
এর ফলে ওই সাংবাদিককে মার্কিন ওয়াচ লিস্টে রাখা হয়েছিল। তবে পরবর্তীতে ২০১৩ সালে নাসার সাবেক কর্মী এডওয়ার্ড স্নোডেন কিছু নথি ফাঁস করায় সত্যা ঘটনা সামনে আসে।
আফিনা আরো বলেন, এই ঘটনার পিছনে যে নজরদারি ব্যবস্থা কাজ করছিলো তা মুলত একটি ‘কিলার রোবট’।
অস্ট্রেলিয়ার সিডনির নিউ সাউথ ওয়েলস ইউনিভার্সিটির এআই বিশেষজ্ঞ টবি ওয়ালশ বলছেন, কিলার রোবট যে কোনো ধরনের উদ্বেগজনক ঘটনাকে উস্কে দিতে পারে।
হাউস অফ লর্ডসে জমা দেয়া লিখিত প্রমাণে ওয়ালশ জানান, আমরা জানি যখন একটি অনিশ্চিত এবং প্রতিযোগিতামূলক পরিবেশে একে অপরের বিরুদ্ধে কোনো জটিল কম্পিউটার সিস্টেম ব্যবহার করা হয় তখন কি ঘটতে পারে!
তিনি আরো বলেন, দ্য ইন্টারসেপ্ট-এর তথ্যানুযায়ী, হিন্দুকুশ এলাকায় তালেবান এবং আল কায়েদার বিরুদ্ধে ২০১১-১৩ সালে যুক্তরাষ্ট্রের সামরিক অভিযানের পাঁচ মাস সময়ে, যারা ড্রোন হামলায় মারা গিয়েছিল তাদের প্রতি ১০ জনের মধ্যে বলতে গেলে ৯ জনই যুক্তরাষ্ট্রের সরাসরি টার্গেট ছিল না। এমন মারাত্মক ঘটনা তখনই ঘটেছে যখন কিনা রোবটের পেছনে সিদ্ধান্ত নেয়ার মতো অন্তত একজন মানুষ ছিলো। যিনি সেই চূড়ান্ত জীবন কিংবা মৃত্যুর সিদ্ধান্তটি নিয়েছিলেন।
সে সময়ে এআই বা কৃত্রিম বুদ্ধিমত্তার পরিস্থিতিগত সচেতনতা ছিলো না। বা একজন ড্রোন পাইলট বা সেনা কর্মকর্তা পেছন থেকে সিদ্ধান্ত গ্রহণ করতেন। একটি সম্পূর্ণ স্বয়ংক্রিয় ড্রোনের ক্ষেত্রে এ পরিসংখ্যান আরও ভয়ংকর হওয়ার আশংকা রয়েছে। যার পেছনে সরাসরি কোনো মানুষের হাত নেই।
টবি ওয়ালশ আরও জানান, সময়ের সাথে সাথে, এসব কৃত্রিম বুদ্ধিমত্তা বা এআই আরও দক্ষ হয়ে উঠবে এবং মানব পাইলটদেরকেও এমনকি দক্ষতায় অতিক্রম করে যাবে কিংবা না করলেও তাদের অন্তত সমান হবে। তখন ভিন্ন প্রশ্ন সামনে আসবে। উদাহরণস্বরূপ, কিলার রোবটগুলি নিশ্চতভাবেই ভুল হাতে গিয়ে পড়বে, যার মধ্যে এমন লোকও রয়েছে যারা বেসামরিক নাগরিকদের বিরুদ্ধে এসব রোবট বা ড্রোনগুলো ব্যবহারে দ্বিধা করবে না।
এগুলো সন্ত্রাসের একটি নিখুঁত অস্ত্র হয়ে উঠবে। কিলার রোবট যুদ্ধের প্রতিবন্ধকতাও কমিয়ে দেবে। যুদ্ধক্ষেত্র থেকে আমাদের আরও দূরে সরিয়ে, এসব কিলার রোবট যুদ্ধকে একটি বাস্তব ভিডিও গেমে পরিণত করবে।
তবে টবি ওয়ালশ মনে করেন, বিপজ্জনক পরিস্থিতি এবং অবাঞ্ছিত ফলাফল বন্ধ করার একমাত্র উপায় হল ‘সার্কিট ব্রেকার’ ব্যবহার করা। স্টক মার্কেটে এই ধরনের পরিস্থিতি ঘটলে আমরা সহজভাবে এবং মুহূর্তের মধ্যে লেনদেন বন্ধ করে দিতে পারি। কিন্তু তৃতীয় বিশ্বযুদ্ধ শুরু হলে তা সহজে বন্ধ করা সম্ভব হবে না। তবে এর অর্থ এই নয় যে গবেষকদের স্বয়ংক্রিয় অস্ত্র ব্যবস্থা ব্যবহার করার পরিকল্পনা সম্পূর্ণ বাদ দেয়া উচিত। বরং এই প্রযুক্তি অন্যান্য ক্ষেত্রে সুফল বয়ে আনতে পারে।
উদাহরণস্বরূপ, আমরা যুদ্ধক্ষেত্রে শত্রুদের শনাক্ত করতে ব্যবহৃত (ড্রোন) রোবটগুলোর অ্যালগরিদম গাড়ির নিরাপত্তায় ব্যবহার করতে পারি, যা পথচারীদের সঙ্গে সংঘর্ষ বা দুর্ঘটনা এড়াতে ব্যবহৃত হবে। অবশ্যই এটি যুদ্ধক্ষেক্রে শত্রুদের পরাস্ত করার তুলনায় কম গুরুত্বপূর্ণ নয়। এ প্রযুক্তির ব্যবহারে সড়ক দুর্ঘটনা অনেকাংশে কমিয়ে আনা সম্ভব।
অতীতে রাসায়নিক অস্ত্র ব্যবহার করে বিশ্বে বিশৃঙ্খলা সৃষ্টি করা হয়ে ছিলো। তাই পরবর্তী সময়ে জাতিসংঘের রাসায়নিক অস্ত্র কনভেনশন রাসায়নিক অস্ত্র উন্নয়ন, উৎপাদন, মজুদ এবং ব্যবহারে বিভিন্ন নিষেধাজ্ঞা দেয়। যা বিশ্বজুড়ে যুদ্ধক্ষেত্রে রাসায়নিক অস্ত্রের অপব্যবহারকে সীমিত করেছে। এলএডব্লিউএস-এর অপব্যবহারের ঝুঁকির কারণে এত উন্নত প্রযুক্তিকে আমরা বাক্সবন্ধি করে রাখতে পারিনা। এর সঠিক ব্যহারে আমাদের যথাযথ ব্যবস্থা গ্রহণ করতে হবে বলে মনে করেন অনেকেই।
লাভ এবং ঝুঁকি
সামরিক দৃষ্টিকোণ থেকে স্বয়ংক্রিয় অস্ত্র ব্যবস্থা বা কিলার রোবট বা ড্রোন ব্যবহারের সুবিধা রয়েছে। সেনা সদস্যদের সাহায্য ছাড়াই যুদ্ধক্ষেত্রের এসব কিলার রোবট বা ড্রোন উল্লেখযোগ্য কিছু কাজ সম্পাদন করতে সক্ষম যার ফলে হতাহতের ঝুঁকি কম হবে। এলএডব্লিউএস-এর সমর্থকদের মতে, এই রোবটের ব্যবহার যুদ্ধক্ষেত্রে পক্ষপাত দূর করতে এবং আবেগ প্রবণ হয়ে সৈন্যদের সিদ্ধান্ত গ্রহণের মত ত্রুটি এড়াতে পারবে। এর ব্যবহারে সেনা সদস্যদের দুর্ঘটনাজনিত হতাহতের সংখ্যা কমাতে পারে।
রোবট বা ড্রোনগুলো প্রতিরক্ষামূলক কাজের জন্য মোতায়েন করা যেতে পারে। সনাক্তকরণ অ্যালগরিদমগুলি বাজপাখির মতো ক্ষিপ্রগতি সম্পন্ন, মানুষের চেয়ে দক্ষ এবং নির্ভুলভাবে সম্ভাব্য হুমকি সনাক্ত ও নির্মূলে সক্ষম।
তবু অনেক বিশেষজ্ঞ কোনও তদারকি ছাড়াই প্রযুক্তিগত ত্রুটির সম্ভাবনা থেকে শুরু করে আন্তর্জাতিক আইনের লঙ্ঘন এবং আবেগহীন মেশিনের জীবন ও মৃত্যুর সিদ্ধান্ত নেয়ার বিষয়ে উদ্বেগ প্রকাশ করেছেন।
এই সমস্ত উদ্বেগের কেন্দ্রবিন্দু হল জবাবদিহিতার প্রশ্ন। ২০১৯ সালে, ১২৬টি দেশ ইউনাইটেড ন্যাশনস কনভেনশন অন সার্টেন কনভেনশনাল উইপন্স (সিসিডব্লিউ) স্বয়ংক্রিয় অস্ত্রের বিষয়ে উদ্বেগ মোকাবেলায় জাতিসংঘ কর্তৃক নিযুক্ত বিশেষজ্ঞদের সুপারিশকৃত ১১ টি নির্দেশিকা নীতিতে সম্মত হয়।
এই নীতিগুলির মধ্যে একটি সিদ্ধান্ত ছিল, আন্তর্জাতিক মানবিক আইন এই ধরনের অস্ত্রের সম্ভাব্য বিকাশের জন্য সম্পূর্ণরূপে প্রযোজ্য হবে। তবে বিশেষজ্ঞরা বলছেন, যুদ্ধক্ষেক্রে সেই নীতি কীভাবে প্রয়োগ করা হবে তা স্পষ্ট নয়। উদাহরণস্বরূপ, যদি একটি রোবট কোনো যুদ্ধাপরাধ করে, তাহলে কি দায়িত্বে থাকা কমান্ডিং অফিসারকে দায়ী করা হবে? নাকি তাকে দায়ী করা হবে , যে এই মেশিনটি স্থাপন করার সিদ্ধান্ত নিয়েছে? নাকি অস্ত্র প্রস্তুতকারী দায়ী হবে?
রাজনৈতিক না আইনগত নিয়ন্ত্রণ?
স্বয়ংক্রিয় অস্ত্র ব্যবস্থা ব্যবহারের আরো একটি বড় প্রশ্ন হলো- এটি কি আইনগতভাবে বাধ্যতামূলক কিছু নিয়মের মাধ্যমে পরিচালিত হবে নাকি রাজনৈতিক কর্মীদের ঘোষণা অনুসারে।
একটি রাজনৈতিক ঘোষণা অনেক দিকে রূপ নিতে পারে। তবে সবার কাছে গ্রহণযোগ্য ঘোষণায় প্রধান শক্তিধর দেশগুলো এই বিষয়ে তাদের একমত হওয়ার পয়েন্টগুলো প্রকাশ করবে এবং মেনে চলার প্রতিশ্রুতি দেবে। ২০২২ সালের জানুয়ারিতে স্বাক্ষরিত পারমাণবিক যুদ্ধ প্রতিরোধ এবং অস্ত্র প্রতিযোগিতা এড়ানোর বিষয়ে চীন, রাশিয়া, যুক্তরাজ্য, যুক্তরাষ্ট্র এবং ফ্রান্সের যৌথ বিবৃতিটির মতোও তা হতে পারে। যেখানে দেশগুলো নিশ্চিত করেছে, একটি পারমাণবিক যুদ্ধে কখনোই জয়ী হওয়া যায় না এবং কখনই লড়াই করা উচিত নয়।
এসডব্লিউএসএস/১৩০০
আপনার মতামত জানানঃ