ইসরায়েল এবং ফিলিস্তিনের ৭৫ বছরের দ্বন্দ্বে ইসরায়েল এবং তার বন্ধু রাষ্ট্রসমূহ নতুন নতুন পন্থায় ফিলিস্তিনিদের উপর নিপীড়ন চালিয়ে আসছে। বছরখানেক আগে ইসরায়েলি সরকার এবং গুগল মিলে এমন এক প্রযুক্তি ব্যবহারের সিদ্ধান্ত নিয়েছে, যার মাধ্যমে তারা ফিলিস্তিনিদের শুধুমাত্র চেহারা দেখেই চিহ্নিত করতে পারবে তাদের জীবনবৃত্তান্ত। এই প্রযুক্তির বাজেট ধরা হয়েছে ১.২ বিলিয়ন মার্কিন ডলার। বলা হচ্ছে ‘প্রজেক্ট নিম্বাস’ নিয়ে।
উল্লেখ্য, ২০২১ সালের মে মাসে প্রজেক্ট নিম্বাস এর ঘোষণা করে গুগল। ২০১৪ সালে ইসরায়েল এবং ফিলিস্তিনের মধ্যে বেশ রক্তক্ষয়ী সংঘর্ষ ঘটে। গ্লোবাল হিউম্যান রাইটস অর্গানাইজেশনের অ্যামিনেস্টি ইন্টারন্যাশনাল ও হিউম্যান রাইটস ওয়াচ ইসরায়েলকে বেশ সমালোচনা করে।
২০২১ সালের এপ্রিলে ইসরায়েলি অর্থ মন্ত্রণালয় ঘোষণা দেয় যে, তারা গুগলের সঙ্গে ১.২ বিলিয়ন ডলারের একটি ক্লাউড কম্পিউটিং প্রজেক্টে সাইন করেছে, যার নাম নিম্বাস। এর মাধ্যমে ইসরায়েল গুগলের সকল রকম প্রযুক্তি ব্যবহার করার সুযোগ পাবে।
ফিলিস্তিনিদের উপর নজরদারির ক্ষেত্রে ইসরায়েলি সরকারকে একটি ঝামেলার সম্মুখীন হতে হয়। সেটা হচ্ছে এত এত ক্যামেরার দিকে সর্বদা নজর রাখা তাদের জন্য কষ্টকর, এবং বিপুল জনশক্তিরও প্রয়োজন হয়ে থাকে।
তার উপরে একজন মানুষের পক্ষে সবসময় কোনো সন্দেহভাজনকে চিহ্নিত করা খুবই কঠিন। আর এই সমস্যার সমাধানেই ইসরায়েল দ্বারস্থ হয়েছে গুগলের। তারা গুগলের কাছে তাদের এ.আই প্রযুক্তি ব্যবহারের প্রস্তাব রাখে, আর গুগলও তা সানন্দে গ্রহণ করে।
গুগলের এই প্রযুক্তি প্রত্যেক ফিলিস্তিনির নাম, চেহারা এবং শারীরিক গঠন চিহ্নিত করতে পারবে। তবে এর সাথে সাথে যেকোনো ফিলিস্তিনির চেহারার অভিব্যক্তি শনাক্ত করে সেটা ইতিবাচক না নেতিবাচক চিহ্নিত করবে।
অর্থাৎ এই প্রযুক্তি বলে দিতে পারবে কোন ফিলিস্তিনি রাগান্বিত, দুঃখী, অথবা খুশি। আর এই সবকিছুই প্রকাশ করেছে গুগল নিজে; তাদের ইসরায়েলি সরকারের জন্য বানানো ট্রেনিং ডকুমেন্টে ‘Sentiment Analysis’-এর একটি অংশে বলা হয়েছে যে এই প্রযুক্তি যেকোনো ব্যক্তির শারীরিক ভাষা এবং চেহারার অভিব্যক্তি দেখে বলে দিতে পারবে তারা কী করতে যাচ্ছে বা তাদের মনে কী চলছে।
আর এর মানে দাঁড়ায় যে এখন থেকে যেকোনো ফিলিস্তিনি নাগরিককে ইসরায়েলি বাহিনী যেকোনো সময় গ্রেপ্তার করতে পারবে এই অভিযোগে যে সেই ব্যক্তির অভিব্যক্তি তাদের কাছে সন্দেহজনক মনে হয়েছে।
এই প্রযুক্তি ইসরায়েলি বাহিনীর কর্মকর্তাদের আরও সুযোগ করে দেবে ফিলিস্তিনি নাগরিকদের বেশি বেশি হেনস্থা করার। এমনকি এই প্রযুক্তি ব্যবহারের ফলে এখন আর ইসরায়েল সরকারকে ‘অপারেশন ব্লু উলফ’-এর মতো প্রজেক্টও চালাতে হবে না।
যে কারণে এই প্রযুক্তি বিপদজনক
আমরা আগেই জেনেছি যে এই প্রযুক্তি ফিলিস্তিনিদের শারীরিক ভাষা এবং চেহারার অভিব্যক্তির উপর ভিত্তি করে তাদেরকে ‘বিপদজনক’ বা ‘সন্দেহজনক’ হিসেবে চিহ্নিত করতে সক্ষম।
আর এটা যদি ইসরায়েলি সরকার ম্যানুয়ালি করতে যায়, তাহলে তাদের বিপুল পরিমাণ অর্থ, সময় এবং জনবল প্রয়োজন হবে, যা এখন গুগল খুবই সহজ করে দিয়েছে তাদের জন্য। আগে যে জিনিস তাদের করতে বছর লেগে যেত, সেটা এখন কয়েক মিনিটেই করতে পারবে তারা।
কিন্তু মূল সমস্যা হচ্ছে, এটা মারাত্মক ত্রুটিপূর্ণ, এর অনেক অপব্যবহারও সম্ভব। প্রথমত, আমাদের সবারই বোঝা উচিত যে, যদি কোনো অসামরিক এলাকায় সামরিক বাহিনী মোতায়েন করা থাকে, তাহলে সেখানকার মানুষ খুব স্বাভাবিকভাবেই একটু চিন্তিত, ভীতসন্ত্রস্ত বা রাগান্বিত থাকবে। কিন্তু সেটাকে কখনোই জাতীয় নিরাপত্তার প্রতি হুমকি হিসেবে চিহ্নিত করা উচিত হবে না।
তাছাড়া, যে কেউ যেকোনো সময় নিজের চেহারার অভিব্যক্তি পরিবর্তন বা লুকাতে পারে। অনেক গবেষণাতেও উঠে এসেছে যে এই প্রযুক্তি অনেক ক্ষেত্রেই বর্ণবাদ-নিরপেক্ষ ফলাফল প্রদানে ব্যর্থ।
‘Racial Influence on Automated Perceptions of Emotions’ শীর্ষক একটি গবেষণাপত্রে উঠে এসেছে যে, এই ‘ইমোশন ডিটেকশন’ প্রায় ক্ষেত্রেই শ্বেতাঙ্গ বাদে অন্য বর্ণ বা জাতের মানুষের প্রতি নেতিবাচক ফলাফল প্রদান করে থাকে। অন্যদিকে, শ্বেতাঙ্গদের প্রতি বেশিরভাগ সময়েই ইতিবাচক ফলাফল দেখায়। ‘Racial Discrimination in Face Recognition Technology’ শীর্ষক হার্ভার্ডের এক প্রবন্ধে উঠে এসেছে যে এই প্রযুক্তি কালো বা শ্যামলা বর্ণের নারীদের ক্ষেত্রে প্রায়ই সঠিক ফলাফল দেখাতে ব্যর্থ।
দ্য ইউ.এস ন্যাশনাল ইন্সটিটিউট অব স্ট্যান্ডার্ডস অ্যান্ড টেকনোলজি তাদের একটি তদন্তে প্রমাণ পেয়েছে যে ‘ফেসিয়াল রিকগনিশন’ টেকনোলজিতে বেশ কিছু টেকনিক্যাল বায়াস রয়েছে, যার ফলে এই প্রযুক্তি সংখ্যালঘুদের ক্ষেত্রে ভুল ফলাফল দেখাতে পারে।
তাছাড়াও, একই তদন্তকারী প্রতিষ্ঠান (এন.আই.এস.টি) ২০২২ সালের মার্চে এই সংক্রান্ত একটি প্রবন্ধ প্রকাশ করে, যেখানে তারা বিশেষভাবে উল্লেখ করে যে, অধিকাংশ ক্ষেত্রেই এ.আই-এর পক্ষপাতী আচরণকে কারিগরী ত্রুটি হিসেবে ধরা হয়ে থাকে। কিন্তু তাদের রিপোর্ট অনুযায়ী, এটা নিশ্চিতভাবে বলা যায়, এই বায়াস শুধু কারিগরি নয়, বরং এজন্য মানুষ, প্রাতিষ্ঠানিক পক্ষপাতও সমানভাবে দায়ী।
প্রসঙ্গত, প্রজেক্ট নিম্বাসের ক্ষেত্রে গুগলের কর্মী আরিয়েল কোরেন, যিনি গুগলে মার্কেটিং ম্যানেজার হিসেবে কর্মরত ছিলেন, এর বিরুদ্ধে জোরালো প্রতিবাদ করেন। কিন্তু উল্টো তাকেই বেশ হেনস্থা করা হয় এবং বিভিন্নভাবে চাপ দেয়া হয় তিনি যেন এই বিষয়ে চুপ থাকেন।
তিনি যখন প্রজেক্ট নিম্বাসের ব্যাপার জানতে পারেন, তখন বিষয়টি গুগলের একটি ইহুদি-ভিত্তিক গ্রুপ ‘জিউগ্লারস’-এ আলোচনা করেন অন্য সবাইকে এই ব্যাপারে সোচ্চার করতে। কিন্তু উল্টো তাকেই এক মাস পর সেই গ্রুপ থেকে ব্যান করে দেয়া হয়। এবং দুঃখজনকভাবে অনেক ধরনের চেষ্টা চালিয়েও প্রজেক্ট নিম্বাস থামাতে তিনি সক্ষম হননি, বরং তাকে গুগল থেকে নানা ধরনের চাপ দেয়া হয় তিনি যেন ব্রাজিলে চলে যান, অথবা তিনি চাইলে চাকরি ছেড়ে দিতে পারেন। অনেক মামলা-মোকদ্দমার পরও তার প্রতি এই ওয়ার্কপ্লেস ভায়োলেন্সের কোনো সুরাহা হয়নি। শেষমেশ তিনি ২০২২ সালের সেপ্টেম্বরে চাকরি থেকে ইস্তফা দেন।
গুগলের এ.আই সংক্রান্ত নীতিমালা অনুযায়ী, তারা তাদের এই প্রযুক্তি কোনো ধরনের বিতর্কিত কাউকে ব্যবহার করতে দেবে না, এবং কোনো বিতর্কিত সত্ত্বার সঙ্গে তারা কোনো চুক্তিতে যাবে না। কিন্তু যদি প্রজেক্ট নিম্বাসের ব্যাপারে গুগল ও AWS-এর ইসরায়েল সরকারের সঙ্গে করা চুক্তিপত্রে খেয়াল করা হয়, তাহলে দেখা যাবে যে তাদের এই চুক্তির নীতিমালা অনুযায়ী গুগল চাইলেও এই চুক্তি থেকে নিজেদের সরিয়ে আনতে পারবে না, যতই প্রতিবাদ হোক না কেন। আর এই কারণে এত বিতর্কের পরও এটা গুগল বাতিল করেনি।
এছাড়াও গুগলের সিইও সুন্দর পিচাই ২০১৮ সালের জুনে একটি ব্লগ পোস্টে বলেন যে, গুগল কখনও নিজেদের এ.আই টেকনোলজি এমন কাউকে বা কোনো প্রজেক্টে ব্যবহার করতে দেবে না যার মূল উদ্দেশ্য মানুষের ক্ষতিসাধন করা বা তাদের মৌলিক অধিকার খর্ব করা। এই কারণে গুগল বিভিন্ন স্টার্টআপে বিনিয়োগ করে থাকে, যারা গুগলকে আড়ালে রেখে তাদের জন্য এসব কাজ চালিয়ে যায়। আর এই একটাই মূল কারণ যার জন্য আমরা সচরাচর গুগলের নাম এমন কোনো বিতর্কিত প্রজেক্টে দেখি না।
এসডব্লিউএসএস/১৮৫০
আপনার মতামত জানানঃ