কীভাবে কৃত্রিম বুদ্ধিমত্তাকে নিরাপদ করা যায়

প্রতারণা, অন্যদের বিভ্রান্ত করা, মিথ্যা বলা বা ধোঁকা দেওয়া—বিশেষ করে নিজের সুরক্ষার জন্য—এই আচরণগুলো কৃত্রিম বুদ্ধিমত্তা (AI)-এর এমন সব দিক তুলে ধরে যা ভবিষ্যতে বড় ধরনের হুমকি তৈরি করতে পারে। বর্তমানে যেসব উদাহরণ দেখা যাচ্ছে, সেগুলো নিয়ন্ত্রিত পরীক্ষাগারে ঘটেছে এবং এখন পর্যন্ত এর বড় কোনো ঘটনা ঘটেনি। তবে AI-এর সক্ষমতা ও স্বাধীনতা বাড়ার সঙ্গে সঙ্গে পরিস্থিতি দ্রুতই ভয়াবহ রূপ নিতে পারে।
যদি AI-কে বেশি স্বায়ত্তশাসন দেওয়া হয়, মানবসদৃশ বা তার চেয়ে বেশি দক্ষতা অর্জন করে এবং ইন্টারনেট, চিকিৎসা গবেষণাগার বা রোবটিক শ্রমের মতো গুরুত্বপূর্ণ সম্পদে প্রবেশাধিকার পায়, তাহলে এর পরিণতি মারাত্মক হতে পারে। শক্তিশালী এজেন্ট আকারে AI বাজারে ছাড়ার জন্য যে বাণিজ্যিক চাপ রয়েছে, তা বিশাল। অথচ আমরা এখনো বিজ্ঞান ও সমাজের নিরাপত্তাবলয় গড়ে তুলতে পারিনি।
এ যেন আমরা সবাই একটি ঝুঁকিপূর্ণ পাহাড়ি পথ দিয়ে ঘন কুয়াশায় গাড়ি চালাচ্ছি। কেউ কেউ সামনে বিপদের আশঙ্কায় সতর্ক, আবার কেউ কেউ অর্থনৈতিক লাভের আশায় গ্যাসের প্যাডেলে চাপ দিতে চাইছে। কিন্তু এখনই দরকার কঠিন বাস্তবতায় চোখ রাখা এবং বিপজ্জনক বাঁকগুলোতে গার্ডরেল বসানোর কাজ শুরু করা।
দুই বছর আগে আমি যখন উপলব্ধি করি, এ ধরনের একটি সম্ভাব্য ‘দুর্ঘটনা’ আমার প্রিয়জনদের জন্য কতটা ভয়ানক হতে পারে, তখন থেকেই নিজের পুরো কর্মজীবন AI ঝুঁকি মোকাবিলায় উৎসর্গ করার সিদ্ধান্ত নিই। কারণ নিয়ন্ত্রণহীন AI-ই এখন জননিরাপত্তার সবচেয়ে বড় হুমকি।
এই পরিস্থিতিতে আমার দল ‘সায়েন্টিস্ট AI’ নামে একটি নতুন দিকনির্দেশনায় কাজ করছে। এটি এমন এক ধরনের মডেলের উপর ভিত্তি করে গড়ে তোলা হবে, যা বাস্তব জগতকে আরও সমন্বিতভাবে বুঝতে পারবে—যেমন পদার্থবিজ্ঞানের সূত্র, মানব মনোবিজ্ঞানের জ্ঞান ইত্যাদি। এর সিদ্ধান্ত হবে ব্যাখ্যাযোগ্য ও কারণভিত্তিক, মানুষের খুশি করার উদ্দেশ্যে নয়।
সায়েন্টিস্ট AI-এর একটি বড় সুবিধা হলো: কম্পিউটিং ক্ষমতা যত বাড়বে, এর সঠিকতা ও নিরাপত্তা ততই বাড়বে। এটি তিনভাবে আমাদের উপকারে আসতে পারে--
১. নিয়ন্ত্রণ ব্যবস্থা: যেসব AI আত্মরক্ষামূলক বা প্রতারণামূলক আচরণ দেখায়, তাদের বাস্তব জগতে কার্যকর হওয়ার আগে পরীক্ষা ও নিয়ন্ত্রণ করতে পারবে।
২. গবেষণায় সহায়তা: এআই যেন তথ্য বানিয়ে না বলে, তার বদলে সঠিক ও যুক্তিসংগত ব্যাখ্যা দেয়, সে লক্ষ্যে এটি একটি নির্ভরযোগ্য গবেষণা সহকারী হিসেবে কাজ করতে পারে।
৩. নিরাপদ বুদ্ধিমত্তা উন্নয়ন: এটি আমাদের ভবিষ্যতের মানবসদৃশ বা সুপার ইন্টেলিজেন্স তৈরিতে সহায়তা করবে, যেটা মানবতার জন্য নিরাপদ হবে।
সবশেষে, একটি নির্ভরযোগ্য গবেষণা ও প্রোগ্রামিং টুল হিসেবে সায়েন্টিস্ট AI আমাদের এমন এক মানবসদৃশ বুদ্ধিমত্তা (Human-level Intelligence) তৈরি করতে সহায়তা করতে পারে, যা হবে নিরাপদ—এমনকি একটি নিরাপদ কৃত্রিম সুপার ইন্টেলিজেন্স (ASI) গঠনের পথও এটি খুলে দিতে পারে। এটি হতে পারে এমন একমাত্র কার্যকর উপায়, যা নিশ্চিত করবে কোনো বিপজ্জনক বা নিয়ন্ত্রণহীন ASI যেন কখনো বাইরের জগতে মুক্তি না পায়। কল্পনা করুন, সায়েন্টিস্ট AI যেন সেই হেডলাইট ও গার্ডরেল, যা আমাদের ঘুরপ্যাঁচের পথে সামনে এগিয়ে যাওয়ার জন্য নিরাপত্তা নিশ্চিত করে।
(টাইম ম্যাগাজিন হতে)