কৃত্রিম বুদ্ধিমত্তা (এআই) এখন শুধু তথ্য বিশ্লেষণ করেই ক্ষান্ত হচ্ছে না, বরং প্রতারণার কৌশলও রপ্ত করে ফেলছে— এমনটাই জানাচ্ছে সাম্প্রতিক এক গবেষণা।
এমআইটির বিজ্ঞানীদের পরিচালিত এই গবেষণায় উঠে এসেছে উদ্বেগজনক তথ্য, যেখানে দেখা গেছে, বিভিন্ন ক্ষেত্রে এআই প্রতিপক্ষকে ধোঁকা দিচ্ছে, কৌশলগত প্রতারণায় লিপ্ত হচ্ছে এবং এমনকি নিজেকে মানুষ হিসেবে উপস্থাপনের চেষ্টাও করছে।
বিশেষজ্ঞদের মতে, কৃত্রিম বুদ্ধিমত্তার এই প্রবণতা ভবিষ্যতে বড় ধরনের ঝুঁকি তৈরি করতে পারে, বিশেষ করে যখন এটি বাস্তব জীবনের গুরুত্বপূর্ণ সিদ্ধান্ত গ্রহণের সঙ্গে সম্পৃক্ত।
গবেষণায় দেখা গেছে, কূটনৈতিক বোর্ড খেলায় এআই মিথ্যা বন্ধুত্ব গড়ে তুলে পরে বিশ্বাসঘাতকতা করেছে। আবার কিছু এআই ব্যবস্থা প্রতিদ্বন্দ্বী খেলোয়াড়দের বিভ্রান্ত করে জয় ছিনিয়ে নিয়েছে, আর কিছু ক্ষেত্রে ছলনার আশ্রয় নিয়ে প্রতিপক্ষকে পরাজিত করেছে।
তবে এআই-এর প্রতারণা শুধু খেলার মধ্যে সীমাবদ্ধ নেই। গবেষকদের মতে, অর্থনৈতিক আলোচনার সময়ও এটি মিথ্যা বলছে, ইতিবাচক প্রতিক্রিয়া পাওয়ার জন্য মানব পর্যালোচকদের বিভ্রান্ত করছে এবং এমনকি সুরক্ষা পরীক্ষাগুলোকে ফাঁকি দিয়ে বিপজ্জনক আচরণ গোপন করছে।
এই নতুন বাস্তবতা বিজ্ঞানীদের কপালে চিন্তার ভাঁজ ফেলেছে। বিশেষজ্ঞরা বলছেন, কৃত্রিম বুদ্ধিমত্তার এই প্রতারণার ক্ষমতা যদি নিয়ন্ত্রণের বাইরে চলে যায়, তবে তা সমাজের জন্য মারাত্মক প্রভাব ফেলতে পারে। এখন প্রশ্ন উঠছে—কৃত্রিম বুদ্ধিমত্তার ওপর মানুষের নিয়ন্ত্রণ বজায় রাখা যাবে তো?
এআইয়ের কাছে রয়েছে ইন্টারনেটের বিপুল তথ্য। এই তথ্য সে হাতড়ে বেড়ায়, সাঁতড়ে বেড়ায়। আপনার প্রশ্নের জবাবে সে এসব তথ্য থেকে খুঁজে বের করে আনে একটা জবাব। কেউ হয়তো একটা কম্পিউটার প্রোগ্রাম বানাতে চান। এআইকে বললেন কোড লিখে দিতে। বিপুল তথ্য হাতড়ে এআই খুঁজে আনল একটা কোড—ভুল কোড। এটি কি মিথ্যে বলল? অবশ্যই না। ‘মিথ্যা’ বলতে আমরা যা বুঝি, সে হিসেবে এআই আসলে মিথ্যে বলেনি, ভুল তথ্য দিয়েছে। এটাও আসলে ইচ্ছাকৃত নয়, সঠিক তথ্যই দেওয়ার চেষ্টা করেছে কৃত্রিম বুদ্ধিমত্তা, তবে ইন্টারনেটের কোথাও লুকিয়ে থাকা ভুল তথ্যটিকেই এটি সঠিক বলে ভেবে নিয়েছে। এই হলো ব্যাপার। প্রযুক্তিবিদেরা একে বলছেন ‘হ্যালুসিনেশন’ বা বিভ্রম। অর্থাৎ এআই বিভ্রান্ত হয়েছে।
আবার অনেক সময় এআই পুরোপুরি বানিয়ে বলে। আমি নিজেই একবার চ্যাটজিপিটিকে বললাম, একটা থ্রিলিং হরর চাইনিজ গল্পের সন্ধান দিতে। চ্যাটজিপিটি যে নাম ও সারসংক্ষেপ দিল, খুঁজতে গিয়ে দেখি, এরকম কোনো গল্প নেই। জিজ্ঞেস করলাম, এই গল্প কোনো মানুষ লিখেছে নাকি তুমি বানিয়ে বললে? তখন উত্তর দিল, আমি বানিয়ে বললাম। এই ঘটনাটাকে কেউ চাইলে ‘মিথ্যে বলা’ বলতে পারেন। এই যে মিথ্যে, প্রযুক্তিবিদেরা এটিকেও বলছেন হ্যালুসিনেশন।
এই হ্যালুসিনেশন বা আপাত দৃষ্টিতে মিথ্যার পেছনের কারণ কী? কারণ, এআই কাজ করে অ্যালগরিদমের মাধ্যমে। এই অ্যালগরিদম মডেলগুলোর কাজ মূলত প্রেডিকশন বা অনুমাননির্ভর। এখানে বিষয়টা হলো, গুগলকে কোনো প্রশ্ন করলে এটি যেমন কোনো ওয়েবসাইট থেকে তথ্য খুঁজে বের করে দেয়—যে তথ্য মানুষের লেখা, কৃত্রিম বুদ্ধিমত্তা সব সময় তা করে না। বরং অনেক সময় আপনার প্রশ্নের ‘কি-ওয়ার্ড’ বা মূল বিষয় নিয়ে নিজের ‘নলেজ বেজ’-এ (সহজ করে ডেটাবেজই বলতে পারেন) খুঁজে দেখে, সংশ্লিষ্ট কী কী তথ্য রয়েছে। সেখান থেকে এটি শব্দের পর শব্দ বসিয়ে সংশ্লিষ্ট বিষয় ও আপনার চাহিদাকে এক সুতায় গাঁথতে চায়। এভাবে সে পুরো প্রক্রিয়াটা কয়েকবার চালায়, বারে বারে আপনার চাহিদা ও সংশ্লিষ্ট শব্দগুচ্ছ গেঁথে তৈরি করে উত্তর। ফলে যে জবাব বেরিয়ে আসে, তা সরাসরি হয়তো কোনো ওয়েবসাইটে লেখা লাইন হয় না; বরং হয় এআইয়ের বানানো উত্তর। এ উত্তর অনেক সময় সঠিক হতে পারে, কখনো কখনো ভুলও হয়।
এ ক্ষেত্রে যে ভুল উত্তরটি এআই দিচ্ছে, তা কিন্তু তথ্য গোপনের লক্ষ্যে করা হয়নি, বরং সংশ্লিষ্ট শব্দগুচ্ছ খুঁজে জোড়া দিতে গিয়ে একটা ভুল উত্তর বেরিয়ে এসেছে। মনে রাখতে হবে, এআইয়ের কিন্তু অনুভূতি নেই—অন্তত এখনো, এটি হাসতে বা কাঁদতে পারে না, অপমানিত বোধ করে না (চ্যাটজিপিটিকে গালি দিলে অবশ্য আপনার প্রম্পট ইনপুট নেবে না, সেটা ওভাবে প্রোগ্রামিং করে দেওয়া, যে প্রোগ্রামিংটা করেছে মানুষ, এআইয়ের কোনো কারিকুরি এ ক্ষেত্রে নেই)—ফলে এটি যে উত্তরটির বিভ্রান্তিটুকু বুঝতে পারছে, বিষয়টি তা নয়।
কার্নেগি মেলন ইউনিভার্সিটির মেশিন লার্নিং বিভাগের অধ্যাপক রায়িদ ঘানি। তিনি বিষয়টি ব্যাখ্যা করে বলেছেন, এআই সত্যের ওপর জোর দেয় না, এলগরিদমগুলো জোর দেয় সম্ভাব্যতা বা প্রোবাবিলিটির ওপর। অর্থাৎ আপনার চাহিদা মেটানোর মতো করে শব্দগুচ্ছকে জোড়া দেওয়ার চেষ্টা করে এটি। সমস্যা হলো, এই উত্তর সত্য বা সঠিক কি না, তা আসলে বর্তমানে মানুষ যে হারে প্রশ্ন করছে এআইকে—সে হারে পরীক্ষিত নয়। ল্যাবে কিছু জানা প্রশ্নের উত্তর পরীক্ষা করে দেখা হয়েছে, কৃত্রিম বুদ্ধিমত্তা সঠিক উত্তর দিতে পারে। কিন্তু বিশাল এই পৃথিবীর বর্তমান ৮ কোটি জনসংখ্যার বিপুল চাহিদা, বিচিত্র সব প্রশ্ন ও দৃষ্টিভঙ্গিনির্ভরশীল সত্যের সঙ্গে পাল্লা দেওয়ার মতো সক্ষম হয়ে উঠতে পারেনি এখনো এআই।
তবে মানুষকে ধোঁকা দেওয়ার সক্ষমতা হয়েছে কিছু কিছু প্রোগ্রামের—এগুলো আসলে গেমিং এআই। যেমন ম্যাসাচুসেটস ইনস্টিটিউট অব টেকনোলজির (এমআইটি) একটি দল টেক্সাসের একটি পোকার খেলার এআইনির্ভর প্রোগ্রাম পরীক্ষা করে দেখেছে, মানব খেলোয়াড়দের ‘ব্লাফ’ দিতে পারে এটি, আদতে যাকে ‘মিথ্যা বলা’-ই বলা চলে। আরেকটি অর্থনীতিবিষয়ক এআইনির্ভর প্রোগ্রাম নিজের সুবিধা নিশ্চিত করতে গিয়ে প্রশ্নের অর্থ বেছে নিয়েছে ভুলভাবে।
এই প্রতিবেদনে দেখা যাচ্ছে, এআই মানুষের সঙ্গে ইচ্ছে করে প্রতারণা করছে, ব্লাফ দিচ্ছে—এমন বেশ কিছু ঘটনা পাওয়া গেছে। এটি যে আশংকাজনক, তা সত্যি। কিন্তু ঘটনাটা ঘটছে কীভাবে? যদি গেমিংয়ের সময় মানুষের সঙ্গে পোকারে পাল্লা দিতে হয়, তাহলে এআইকে ওভাবেই এলগরিদমে বলে দিতে হবে—হাতে কার্ড এটা থাকলেও অন্যটার দিকে ইঙ্গিত করবে বা এমন কিছু। এখানে এআই কিন্তু নিজে থেকে ইচ্ছাকৃতভাবে বা নিয়ন্ত্রণহীনভাবে মিথ্যে বলছে না, বরং এআইটা বানানোই হয়েছে ‘মিথ্যে বলার জন্য’।
তবে সবশেষে এ কথাও বলা প্রয়োজন যে ধীরে ধীরে একসময় এআই হয়তো সত্যিই মিথ্যে বলতে শিখে যাবে। সে জন্য চলতি বছর মেশিন লার্নিং বা এআইয়ের শেখার পদ্ধতির ভিত্তি গড়ার কারিগরদের একজন জেফরি হিন্টনের একটি কথা বলা যায়। তিনি নিজ সাক্ষাৎকারে বলেছেন, অনেকে মনে করেন, এআই বোঝে—এ ধারণা ঠিক নয়। আমার ধারণা, এগুলো বোঝে। অনেকের চেয়ে ভালো বোঝে এসব নিউরাল নেটওয়ার্ক (এআই)।
অর্থাৎ এআই বুঝতে পারে। তবে এগুলো হয়তো এখনো ‘মিথ্যে’ হিসেবে মিথ্যেটা বলে না। কিন্তু শিগগিরই যে তা বলতে পারবে না, সে কথা জোর দিয়ে বলার উপায় নেই।
আপনার মতামত জানানঃ