গত বছরের গুগলের ডিপ মাইন্ড আর্টিফিশিয়াল ইন্টেলিজেন্স প্রকল্পের সাফল্য বিজ্ঞানীদের কপালে চিন্তার ভাঁজ ফেলে দেয়। গবেষণায় ডিপ মাইন্ড এআই প্রোগ্রামের এক প্রকল্পে দুটি রোবটের তাৎক্ষণিক প্রতিক্রিয়ায় বিজ্ঞানীরা অবাক হয়ে যান। রোবট দুটি তাদের গেম জিততে মরিয়া হয়ে ওঠে।
এ ফলাফল থেকে কিছুটা হলেও ধারণা করা যেতে পারে, পরবর্তীতে রোবট তৈরিতে আগেই চিন্তা করতে হবে। এমনটাও হতে পারে নিজের বানানো রোবট নিজের জন্য হুমকি হয়ে দাঁড়ায়। গুগল টিম যত বেশি জটিলভাবে ডিপ মাইন্ডকে তৈরি করছে ততই এটার মধ্যে লোভ ও আক্রমণাত্মক মনোভাব দেখতে পেয়েছে।
গবেষকেরা আশঙ্কা করছেন, যত বেশি কৃত্রিম বুদ্ধিমত্তা রোবটগুলোর মধ্যে সংযোজন করা হবে এটা ততই পরিবেশ থেকে শিখবে এবং আক্রমণাত্মক হয়ে উঠবে। ২০১৭ সালের অ্যালফাবেটের তৈরি আলফাগো নামের একটি প্রোগ্রাম মানুষকে হারিয়ে এ খেলায় চ্যাম্পিয়ন হয়।
গত বছর গুগলের এই প্রোগ্রাম বিশ্বের সর্বশ্রেষ্ঠ গো প্লেয়ারের মুখোমুখি হয়ে পাঁচটির মধ্যে চারটি গেইমই জিতে নেয়। শুধু তাই নয়, এতে যথেষ্ট বুদ্ধিবৃত্তিরও পরিচয় দেয় প্রোগ্রামটি।
বিজ্ঞানীরা এখন প্রশ্ন তুলছেন, যন্ত্র বা রোবট তৈরি করে তাতে কৃত্রিম বুদ্ধিমত্তা যুক্ত করলে তা কি আমাদের কথামতো চলবে? সুইচ কি মানুষের হাতে থাকবে, নাকি যন্ত্র নিজেই সিদ্ধান্ত নিয়ে নেবে? যন্ত্রের বুদ্ধিমত্তা মানুষকে ছাড়িয়ে গেলে তা মানবজাতির জন্য হুমকির কারণ হবে না তো?
বিখ্যাত পদার্থবিজ্ঞানী স্টিফেন হকিং কৃত্রিম বুদ্ধিমত্তা নিয়ে বহুদিন আগেই সতর্কবার্তা দিয়ে গেছেন। সে কথাই আবার নতুন করে শোনালেন গুগলের সাবেক চেয়ারম্যান এরিক স্মিড। গুগলের মূল প্রতিষ্ঠানের নাম এখন অ্যালফাবেট। এ প্রতিষ্ঠানটি এখন কৃত্রিম বুদ্ধিমত্তা নিয়ে উন্নত গবেষণা চালাচ্ছে।
এরিক শুরু থেকেই কৃত্রিম বুদ্ধিমত্তার উত্থান খুব ভালো করেই পর্যবেক্ষণ করে আসছেন। তার চোখে, কৃত্রিম বুদ্ধিমত্তায় বিনিয়োগের স্বর্ণযুগ এখন। এখনকার কৃত্রিম বুদ্ধিমান যন্ত্র রোগ নিরাময়ে সাহায্য করার পাশাপাশি মানুষের জীবনকে সমৃদ্ধ করবে। তবে মানুষের ধ্বংস ডেকে আনার হাতিয়ারও হতে পারে এরা। তাই কৃত্রিম বুদ্ধিমান যন্ত্র নিয়ে নীতিমালা করার পরামর্শও দিয়েছেন তিনি।
স্বয়ংক্রিয় পারমানবিক অস্ত্র
বিজ্ঞানীরা বলেন, কৃত্রিম বুদ্ধিমত্তা বা এআই যন্ত্রকে মানুষের মতো আচরণ করতে সক্ষম করে। মেশিন লার্নিং নামের পদ্ধতি ব্যবহার করে আরও উন্নত পূর্বাভাসসহ ধীরে ধীরে উন্নত হয়ে উঠছে যন্ত্র। এর পাশাপাশি কৃত্রিম নিউরাল নেটওয়ার্ক নামের ডিপ লার্নিং পদ্ধতি ব্যবহার করে মানুষের মস্তিষ্কের মতো সিদ্ধান্ত নিতে পারছে যন্ত্র। এতে সিদ্ধান্ত নিতে মানুষের হস্তক্ষেপ প্রয়োজন পড়ছে না।
সম্প্রতি বিভিন্ন দেশ তাদের প্রতিরক্ষাকাজে কৃত্রিম বুদ্ধিমত্তাসম্পন্ন যন্ত্রের ব্যবহার শুরু করেছে। আমরা আগেই আধা স্বয়ংক্রিয় ড্রোনের (চালকবিহীন বিমান) ব্যবহার দেখেছি। এখন এতে কৃত্রিম বুদ্ধিমত্তার সাহায্যে পুরোপুরি স্বয়ংক্রিয় করে তোলা হচ্ছে। এ ক্ষেত্রে যুক্তরাষ্ট্র, রাশিয়ার নাম আসবে সবার আগে।
গুগলের সাবেক চেয়ারম্যান বলেন, প্রতিরক্ষার পাশাপাশি অত্যাধুনিক ক্ষেপণাস্ত্র তৈরিতেও কৃত্রিম বুদ্ধিমত্তাকে কাজে লাগানোর ঘটনা ঘটছে। হাইপারসনিক ক্ষেপণাস্ত্রের ক্ষেত্রে ত্বরিত সিদ্ধান্ত নেওয়ার ক্ষমতা কৃত্রিম বুদ্ধিমত্তার ওপর ছাড়া হচ্ছে। স্মিডের চোখে সেটি অনেক বেশি উদ্বেগের।
তিনি বলেন, কৃত্রিম বুদ্ধিমত্তা মানুষের কাছ থেকে শিখতে পারে। ভাবুন, যদি এটি কিছু ভুল শেখে এবং ভুল সুপারিশ করে তবে যেকোনো সময় যুদ্ধ শুরু হয়ে যেতে পারে। স্মিড তাই চীন ও রাশিয়াকে স্বয়ংক্রিয়ভাবে চালু হওয়া পারমাণবিক অস্ত্রের ব্যবহার বন্ধ করার জন্য আহ্বান জানিয়েছেন।
ডিপফেক
বর্তমান বিশ্বে বড় দুশ্চিন্তার নাম ডিপফেক। এতে কম্পিউটারে কারসাজি করা ছবিতে এক ব্যক্তির সাদৃশ্য অন্যের ক্ষেত্রে প্রতিস্থাপনের জন্য ব্যবহৃত হয়। আশঙ্কার কথা, ছবি বা ভিডিওকে বিকৃত ও কৃত্রিম বুদ্ধিমত্তার সাহায্যে নিখুঁতভাবে তৈরি করে হুবহু আসলের মতো বলে প্রচার করা হচ্ছে। বিষয়টি প্রযুক্তিজগতে ডিপফেক নামে ব্যাপক পরিচিত হয়ে উঠেছে।
ফাইভ-জি প্রযুক্তির বিকাশ আইওটি এবং আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) বা কৃত্রিম বুদ্ধিমত্তা সংযুক্ত প্রযুক্তির ব্যবহার বহুগুণ বাড়িয়ে দিয়েছে। ডিপ ফেক তৈরির টুল অনলাইনে ব্যাপকভাবে পাওয়া যায়। কৃত্রিম বুদ্ধিমত্তার ব্যবহারে এটি আরও শক্তিশালী হয়ে উঠেছে।
স্মিড বলেন, কৃত্রিম বুদ্ধিমত্তার প্রয়োগে ভিডিও এমনভাবে তৈরি করা হচ্ছে যা বিশ্বাসযোগ্য করে ফলা হচ্ছে। ভুয়া ভিডিও তৈরি করার পর তা যদি মানুষের সামনে তুলে আনা হয়, এমনকি তা ভুয়া বলে প্রচার করা হয় তারপরও কমবেশি মানুষ তা বিশ্বাস করে বসে।
ঘাতক রোবট
বিশ্বজুড়ে কৃত্রিম বুদ্ধিমত্তাযুক্ত ‘ঘাতক রোবট’ নিয়ে উৎকণ্ঠা বেড়েই চলেছে। কারণ রোবট বা স্বয়ংক্রিয় যন্ত্র স্বয়ংক্রিয় অস্ত্র হিসেবে ব্যবহৃত হতে পারে। তাই রোবট তৈরির ক্ষেত্রে প্রয়োজনীয় নীতিনৈতিকতা নির্ধারণ করা নিয়ে আলোচনাও শুরু হয়েছে।
এ আলোচনা জাতিসংঘ পর্যন্ত গড়িয়েছে। আন্তর্জাতিক একটি চুক্তির কথাবার্তাও হচ্ছে এ নিয়ে। তবে ঘাতক রোবট নিয়ে উৎকণ্ঠা বাড়লেও রাশিয়া, যুক্তরাষ্ট্রসহ এ ধরনের রোবট নির্মাতা দেশগুলো এমন চুক্তি নিয়ে আলোচনার বিরোধিতা করছে।
নিউইয়র্ক টাইমস-এর এক প্রতিবেদনে বলা হয়, কৃত্রিম বুদ্ধিমত্তাযুক্ত যন্ত্র নিয়ে আলোচনা না এগোনোয় বিভিন্ন দেশের সরকারি কর্মকর্তা ও বেসরকারি সংগঠনের পক্ষ থেকে হতাশার কথা বলা হচ্ছে।
পুরোপুরি স্বয়ংক্রিয় অস্ত্রে (ঘাতক রোবট) মানুষের হাতে কোনো ‘কিল সুইচ’ বা নিয়ন্ত্রণের সুযোগ থাকে না। এর পরিবর্তে যন্ত্রটি নিজেই তার সেন্সর, সফটওয়্যার ও কারিগরি প্রক্রিয়া ব্যবহার করে সিদ্ধান্ত নিতে পারে। এ ক্ষেত্রে মানুষের জীবন ঝুঁকিপূর্ণ হয়ে উঠতে পারে।
কাতারভিত্তিক গণমাধ্যম আল-জাজিরার খবরে বলা হয়, গত মার্চে জাতিসংঘের একটি প্যানেলের প্রতিবেদন প্রকাশের পর থেকে এই শিল্পের ওপর নিয়ন্ত্রণ জরুরি হওয়ার বিষয় সামনে আসে। প্রতিবেদনে বলা হয়, প্রথম স্বয়ংক্রিয় ড্রোন হামলার ঘটনা ঘটেছিল লিবিয়ায়।
এসডব্লিউ/এসএস/১৬১০
আপনার মতামত জানানঃ