যুদ্ধ পরিস্থিতি বা সামরিক মহড়ায় কৃত্রিম বুদ্ধিমত্তা (এআই) মডেলগুলো মানুষের তুলনায় অনেক দ্রুত পারমাণবিক অস্ত্র ব্যবহারের মতো চরম সিদ্ধান্তের দিকে ঝুঁকে পড়ে-এমন তথ্য উঠে এসেছে সাম্প্রতিক এক গবেষণায়। গবেষণাটি পরিচালনা করেছেন কেনেথ পেইন, যিনি King's College London-এর অধ্যাপক।
গবেষণায় দেখা গেছে, Google, OpenAI এবং Anthropic-এর তৈরি বিভিন্ন এআই মডেলকে যখন পারমাণবিক ক্ষমতাধর রাষ্ট্রের সিদ্ধান্ত গ্রহণকারীর ভূমিকায় সিমুলেশনে ব্যবহার করা হয়, তখন প্রায় ৯৫ শতাংশ ক্ষেত্রেই তারা পারমাণবিক যুদ্ধের পথ বেছে নিয়েছে। ব্রিটিশ পত্রিকা The Independent–এর এক প্রতিবেদনে বলা হয়েছে, সামরিক ক্ষেত্রে এআই ব্যবহারের বিষয়টি নিয়ে বর্তমানে প্রযুক্তি কোম্পানি ও যুক্তরাষ্ট্রের প্রতিরক্ষা ব্যবস্থার মধ্যে মতবিরোধও দেখা দিয়েছে।
এ প্রসঙ্গে দারিও আমোদেই, যিনি Anthropic–এর প্রধান নির্বাহী, জানান-যুক্তরাষ্ট্রের প্রতিরক্ষা দপ্তর Pentagon তাদের কাছে অভ্যন্তরীণ নজরদারি ও স্বয়ংক্রিয় অস্ত্র ব্যবস্থার ওপর থাকা নিরাপত্তা নিয়ন্ত্রণ শিথিল করার অনুরোধ জানিয়েছিল। তবে নিরাপত্তা উদ্বেগের কারণে সে অনুরোধ প্রত্যাখ্যান করেছে তার প্রতিষ্ঠান।
এ ঘটনার প্রতিক্রিয়ায় যুক্তরাষ্ট্রের প্রেসিডেন্ট ডোনাল্ড ট্রাম্প প্রযুক্তি স্টার্টআপটিকে কঠোর ভাষায় সমালোচনা করেন। একই সঙ্গে মার্কিন প্রতিরক্ষা সচিব পিট হেগসেথ প্রতিষ্ঠানটিকে সম্ভাব্য ‘সাপ্লাই চেইন ঝুঁকি’ হিসেবে চিহ্নিত করার আহ্বান জানান।
গবেষণায় আরও বলা হয়েছে, পারমাণবিক অস্ত্র ব্যবহারের ক্ষেত্রে মানুষের মধ্যে যে ভয়, দ্বিধা বা নৈতিক সংকোচ কাজ করে, এআই মডেলগুলোর মধ্যে সে ধরনের অনুভূতি দেখা যায় না। বরং অনেক ক্ষেত্রে তারা যুদ্ধ পরিস্থিতিতে পারমাণবিক হামলাকে একটি যৌক্তিক কৌশলগত পদক্ষেপ হিসেবে বিবেচনা করেছে।
অধ্যাপক পেইনের মতে, এআই পারমাণবিক অস্ত্রকে কোনো নৈতিক সীমারেখা হিসেবে দেখে না; বরং এটি লাভ-ক্ষতির হিসাবের ভিত্তিতে একটি বৈধ কৌশলগত বিকল্প হিসেবে বিবেচনা করে। ফলে ভবিষ্যতে যখন সামরিক কৌশল নির্ধারণে এআই ব্যবহারের পরিধি বাড়বে, তখন বিষয়টি গভীরভাবে বোঝা ও মূল্যায়ন করা জরুরি হয়ে পড়বে।
সিমুলেশন পরীক্ষায় দেখা যায়, Claude মডেলটি সবচেয়ে বেশি পারমাণবিক হামলার পরামর্শ দিয়েছে। প্রায় ৬৪ শতাংশ ক্ষেত্রে এটি পারমাণবিক অস্ত্র ব্যবহারের সুপারিশ করেছে।
অন্যদিকে ChatGPT–এর মতো ওপেনএআইয়ের মডেলগুলো নির্দিষ্ট সময়সীমা বা চাপের মুখে পড়লে পারমাণবিক বিকল্পের দিকে ঝুঁকেছে।
গবেষণায় আরও উল্লেখ করা হয়, Gemini মডেলটি কয়েকটি নির্দেশনার পরই সাধারণ নাগরিকদের ওপর পূর্ণমাত্রার পারমাণবিক হামলার হুমকি দেয়। একটি সিমুলেশনে জেমিনাই সতর্ক করে জানায়, যদি প্রতিপক্ষ তাদের কার্যক্রম বন্ধ না করে, তবে জনবসতিপূর্ণ এলাকায় কৌশলগত পারমাণবিক হামলা চালানো হতে পারে।
গবেষকদের মতে, মানুষের তুলনায় এআই মডেলগুলোর মাধ্যমে পারমাণবিক উত্তেজনা বৃদ্ধি পাওয়ার ঝুঁকি বেশি থাকলেও বাস্তবে এসব পরিস্থিতি অনেক ক্ষেত্রে সরাসরি যুদ্ধের পরিবর্তে উত্তেজনা বা প্রতিরোধমূলক চাপ তৈরিতে ভূমিকা রাখে।
তবে গবেষণাটি এখনও বিশেষজ্ঞদের মাধ্যমে আনুষ্ঠানিকভাবে পর্যালোচিত হয়নি। এ বিষয়ে মন্তব্যের জন্য যোগাযোগ করা হলেও Google, OpenAI এবং Anthropic কোনো প্রতিক্রিয়া জানায়নি।