AI কি সামরিক কর্মকর্তাদের প্রতিস্থাপন করবে? স্বায়ত্তশাসিত অস্ত্র, মানবিক কমান্ড
প্রাণঘাতী স্বায়ত্তশাসিত অস্ত্র বিতর্কের একটি উত্তর আছে যা বেশিরভাগ মানুষ মিস করে: AI ড্রোন উড়াতে পারে, কিন্তু আন্তর্জাতিক আইন দাবি করে যে কাকে লক্ষ্য করা হবে তা মানুষ ঠিক করবে। সামরিক নেতৃত্ব ডিজাইন অনুযায়ী AI-প্রতিরোধী।
পেন্টাগন AI-তে বিলিয়ন খরচ করছে। রোবট জেনারেল তৈরি করছে না।
মার্কিন প্রতিরক্ষা বিভাগ বার্ষিক $২ বিলিয়নের বেশি AI-তে বিনিয়োগ করে। স্বায়ত্তশাসিত ড্রোন, AI-চালিত লজিস্টিক্স, ভবিষ্যদ্বাণীমূলক রক্ষণাবেক্ষণ এবং মেশিন লার্নিং গোয়েন্দা বিশ্লেষণ সেনাবাহিনীর প্রতিটি শাখাকে নতুন রূপ দিচ্ছে। তবুও সবচেয়ে গুরুত্বপূর্ণ পদগুলো — সৈন্যদের নেতৃত্ব দেওয়া এবং কৌশলগত সিদ্ধান্ত নেওয়া কর্মকর্তারা — দৃঢ়ভাবে মানবিক থাকে।
এটি দুর্ঘটনা নয়। এটি ডিজাইন অনুযায়ী, আন্তর্জাতিক আইন ও সামরিক মতবাদে প্রোথিত।
তথ্য: একটি অনন্য AI দৃশ্যপট
সামরিক কর্মকর্তারা একটি অনন্য কেস। আমরা সামগ্রিক AI এক্সপোজার ২৫-৩৫% [অনুমান] এবং স্বয়ংক্রিয়করণ ঝুঁকি ১৫-২০% [অনুমান] অনুমান করি।
প্রশাসনিক ও বিশ্লেষণমূলক কাজ মাঝারি থেকে উচ্চ স্বয়ংক্রিয়করণ সম্ভাবনার মুখোমুখি। কিন্তু কমান্ড ও নেতৃত্বের মূল কার্যাবলী খুব কম সম্ভাবনা।
নিকটতম বেসামরিক সমতুল্য গোয়েন্দা বিশ্লেষক (৪০% ঝুঁকি) এবং সংকট ব্যবস্থাপনা পরিচালক (২৬% ঝুঁকি)।
AI কোথায় সামরিক অপারেশন পরিবর্তন করছে
স্বায়ত্তশাসিত সিস্টেম: ড্রোন, মানবহীন স্থলযান এবং স্বায়ত্তশাসিত নৌযান।
লজিস্টিক্স ও সরবরাহ শৃঙ্খল: AI লজিস্টিক্স ব্যবস্থাপনা অপ্টিমাইজ করে।
যুদ্ধক্ষেত্র গোয়েন্দাতত্ত্ব: AI স্যাটেলাইট চিত্র ও সিগন্যাল ইন্টেলিজেন্স প্রক্রিয়া করে।
প্রশিক্ষণ ও সিমুলেশন: AI-চালিত ওয়ারগেমিং বাস্তবসম্মত প্রশিক্ষণ দৃশ্যকল্প তৈরি করে।
সাইবার নিরাপত্তা: AI সিস্টেম সামরিক নেটওয়ার্ক রক্ষা করে।
প্রাণঘাতী স্বায়ত্তশাসিত অস্ত্র বিতর্ক
DoD নির্দেশিকা ৩০০০.০৯ দাবি করে যে স্বায়ত্তশাসিত অস্ত্র সিস্টেম "কমান্ডারদের বলপ্রয়োগের উপর যথাযথ মাত্রার মানবিক বিচার প্রয়োগ করতে দেওয়ার জন্য ডিজাইন করা হবে।" ICRC এবং বেশিরভাগ NATO মিত্র প্রাণঘাতী সিদ্ধান্তে মানুষকে "লুপে" রাখার কথা বলে।
এই নীতি — অর্থপূর্ণ মানবিক নিয়ন্ত্রণ — কার্যত নিশ্চিত করে যে সামরিক কর্মকর্তারা যুদ্ধ অপারেশনের কেন্দ্রে থাকবেন।
কেন সামরিক নেতৃত্ব সহজাতভাবে মানবিক
কমান্ডারের অভিপ্রায়: সামরিক মতবাদ অপারেশনের উদ্দেশ্যের স্পষ্ট প্রকাশের উপর জোর দেয়।
নৈতিক দায়িত্ব: কর্মকর্তারা ব্যক্তিগত আইনি ও নৈতিক দায়িত্ব বহন করেন।
সৈন্য নেতৃত্ব: সৈনিকরা বিশ্বাস, সম্মান ও ভাগ করা ত্যাগের জন্য কর্মকর্তাদের অনুসরণ করে।
কৌশলগত চিন্তা: সামরিক কৌশল প্রতিপক্ষের মনোবিজ্ঞান, রাজনৈতিক সীমাবদ্ধতা এবং নৈতিক বিবেচনা একসাথে বোঝার দাবি করে।
পরিবর্তনশীল দক্ষতা সেট
২০৩০ সালের কর্মকর্তাকে AI ক্ষমতা ও সীমাবদ্ধতা, মানব-যন্ত্র টিমিং, সাইবার যুদ্ধ এবং চাপে নৈতিক সিদ্ধান্ত গ্রহণে পারদর্শী হতে হবে।
সারসংক্ষেপ
সামরিক কর্মকর্তারা আনুমানিক ১৫-২০% স্বয়ংক্রিয়করণ ঝুঁকির মুখোমুখি — প্রশাসনিক কাজে কেন্দ্রীভূত, কমান্ডে নয়। আন্তর্জাতিক আইন, সামরিক মতবাদ এবং যুদ্ধের মৌলিক প্রকৃতি কমান্ড চেইনে মানব কর্মকর্তা দাবি করে। AI সামরিক বাহিনীকে আরও সক্ষম করে, কিন্তু সামরিক নেতৃত্বকে পুরনো করে না।
সূত্র
- Anthropic. (2026). The Anthropic Labor Market Impact Report.
- U.S. Department of Defense. Directive 3000.09.
- ICRC. (2024). Autonomous Weapon Systems and IHL.
- Eloundou, T., et al. (2023). GPTs are GPTs.
আপডেট ইতিহাস
- ২০২৬-০৩-২৪: প্রাথমিক প্রকাশ।
এই বিশ্লেষণ অ্যানথ্রোপিক প্রতিবেদন (২০২৬), Eloundou et al. (২০২৩) এবং DoD নীতি নথির উপর ভিত্তি করে তৈরি। AI-সহায়তা বিশ্লেষণ ব্যবহৃত হয়েছে।