BitcoinWorld
Anthropic Pentagon কালো তালিকা: AI স্ব-নিয়ন্ত্রণের বিধ্বংসী ফাঁদ উন্মোচিত
শুক্রবার বিকেলের এক চমকপ্রদ ঘটনায় যা সিলিকন ভ্যালি এবং ওয়াশিংটন ডি.সি.-তে ধাক্কা দিয়েছে, মার্কিন প্রতিরক্ষা বিভাগ Anthropic-এর সাথে সম্পর্ক ছিন্ন করেছে, যা $200 মিলিয়ন চুক্তি ক্ষতি সৃষ্টি করেছে এবং কৃত্রিম বুদ্ধিমত্তায় স্ব-নিয়ন্ত্রণের মৌলিক ফাঁদ প্রকাশ করেছে। সান ফ্রান্সিসকো-ভিত্তিক এই AI কোম্পানি, যা প্রাক্তন OpenAI গবেষকদের দ্বারা নিরাপত্তা নীতির ভিত্তিতে প্রতিষ্ঠিত, এখন পেন্টাগনের কালো তালিকার মুখোমুখি হয়েছে কারণ তারা দেশীয় ব্যাপক নজরদারি এবং স্বায়ত্তশাসিত হত্যাকারী ড্রোনের জন্য প্রযুক্তি তৈরি করতে অস্বীকার করেছে। এই অভূতপূর্ব পদক্ষেপ, একটি আমেরিকান কোম্পানির বিরুদ্ধে জাতীয় নিরাপত্তা সরবরাহ শৃঙ্খল আইন প্রয়োগ করে, একটি বিপজ্জনক নিয়ন্ত্রক শূন্যতা প্রকাশ করেছে যা MIT পদার্থবিজ্ঞানী ম্যাক্স টেগমার্কের মতো বিশেষজ্ঞরা বছরের পর বছর ধরে সতর্ক করে আসছেন। এই সংকট প্রদর্শন করে যে কীভাবে AI কোম্পানিগুলোর বাধ্যতামূলক তদারকির প্রতিরোধ সম্ভাব্য বিধ্বংসী পরিণতি সহ একটি কর্পোরেট ক্ষমা তৈরি করেছে।
ট্রাম্প প্রশাসনের সিদ্ধান্ত সরকার-AI সম্পর্কে একটি ভূমিকম্পীয় পরিবর্তন প্রতিনিধিত্ব করে। প্রতিরক্ষা সচিব পিট হেগসেথ 2019 জাতীয় প্রতিরক্ষা অনুমোদন আইনের ধারা 889 প্রয়োগ করেছেন, যা বিদেশী সরবরাহ শৃঙ্খল হুমকি মোকাবেলার জন্য ডিজাইন করা হয়েছিল, Anthropic-কে সমস্ত পেন্টাগন ব্যবসা থেকে কালো তালিকাভুক্ত করতে। এটি একটি দেশীয় প্রযুক্তি কোম্পানির বিরুদ্ধে এই আইনের প্রথম প্রকাশ্য প্রয়োগ চিহ্নিত করেছে। প্রেসিডেন্ট ট্রাম্প একটি Truth Social পোস্টের মাধ্যমে প্রতিটি ফেডারেল এজেন্সিকে "অবিলম্বে Anthropic প্রযুক্তির সমস্ত ব্যবহার বন্ধ করতে" নির্দেশ দিয়ে পদক্ষেপটি বাড়িয়েছেন। কোম্পানির অস্বীকৃতি দুটি নৈতিক লাল লাইনের উপর কেন্দ্রীভূত ছিল: মার্কিন নাগরিকদের ব্যাপক নজরদারির জন্য AI তৈরি করা এবং মানুষের ইনপুট ছাড়াই লক্ষ্য নির্বাচন এবং হত্যা করতে সক্ষম স্বায়ত্তশাসিত সশস্ত্র ড্রোন তৈরি করা। Anthropic আদালতে এই পদবী চ্যালেঞ্জ করার পরিকল্পনা ঘোষণা করেছে, এটিকে "আইনিভাবে অযৌক্তিক" বলে অভিহিত করেছে, তবে তাৎক্ষণিক আর্থিক এবং সুনামগত ক্ষতি যথেষ্ট।
ম্যাক্স টেগমার্ক, ফিউচার অফ লাইফ ইনস্টিটিউটের প্রতিষ্ঠাতা এবং 2023 AI বিরতি চিঠির সংগঠক, সংকটের নিরপেক্ষ বিশ্লেষণ প্রদান করেন। "ভালো উদ্দেশ্য দিয়ে নরকের রাস্তা তৈরি হয়," তিনি একটি এক্সক্লুসিভ সাক্ষাৎকারে মন্তব্য করেছেন। টেগমার্ক যুক্তি দেন যে Anthropic, OpenAI, Google DeepMind এবং xAI-এর সাথে, স্বেচ্ছাসেবী নিরাপত্তা প্রতিশ্রুতি দেওয়ার সাথে সাথে বাধ্যতামূলক AI নিয়ন্ত্রণের বিরুদ্ধে ক্রমাগত লবিং করেছে। "আমেরিকায় এই মুহূর্তে AI সিস্টেমে স্যান্ডউইচের চেয়ে কম নিয়ন্ত্রণ রয়েছে," তিনি উল্লেখ করেছেন, বর্তমান ল্যান্ডস্কেপের অযৌক্তিকতা তুলে ধরে। একজন খাদ্য পরিদর্শক স্বাস্থ্য লঙ্ঘনের জন্য একটি স্যান্ডউইচ দোকান বন্ধ করতে পারেন, কিন্তু সম্ভাব্য বিপজ্জনক AI মোতায়েন প্রতিরোধের জন্য কোনও সমতুল্য কর্তৃপক্ষ বিদ্যমান নেই। এই নিয়ন্ত্রক শূন্যতা টেগমার্ক যাকে "কর্পোরেট ক্ষমা" বলে অভিহিত করেন তা তৈরি করে—এমন একটি পরিস্থিতি যেখানে বিপর্যয় আঘাত না করা পর্যন্ত কোম্পানিগুলো সম্ভাব্য ক্ষতিকারক কর্মের জন্য কোনও আইনি পরিণতির মুখোমুখি হয় না।
AI নিরাপত্তা প্রতিশ্রুতির ক্ষয় প্রধান কোম্পানিগুলোতে একটি উদ্বেগজনক প্যাটার্ন অনুসরণ করে:
এই প্যাটার্নটি প্রকাশ করে যাকে টেগমার্ক "বিপণন বনাম বাস্তবতা" বলে—কোম্পানিগুলো নিরাপত্তা বর্ণনা প্রচার করছে যখন নিয়ন্ত্রণগুলোর প্রতিরোধ করছে যা সেই প্রতিশ্রুতিগুলোকে প্রয়োগযোগ্য করবে। আইনি কাঠামোর অনুপস্থিতির অর্থ হল এই প্রতিশ্রুতিগুলো ঐচ্ছিক এবং কর্পোরেট বিবেচনায় প্রত্যাহারযোগ্য থাকে।
AI কোম্পানিগুলো প্রায়ই "চীনের সাথে প্রতিযোগিতা" যুক্তি দিয়ে নিয়ন্ত্রক প্রস্তাবের প্রতিক্রিয়া জানায়, পরামর্শ দেয় যে কোনও মন্থরতা বেইজিংকে সুবিধা দেবে। টেগমার্ক বাধ্যকর বিশ্লেষণের সাথে এই যুক্তি ভেঙে দেন। "চীন সরাসরি AI গার্লফ্রেন্ড নিষিদ্ধ করার প্রক্রিয়ায় রয়েছে," তিনি উল্লেখ করেছেন, ব্যাখ্যা করেছেন যে চীনা কর্তৃপক্ষ নির্দিষ্ট AI অ্যাপ্লিকেশনগুলোকে সামাজিক স্থিতিশীলতা এবং যুব উন্নয়নের হুমকি হিসাবে দেখে। আরও মৌলিকভাবে, তিনি নিয়ন্ত্রণ প্রক্রিয়া ছাড়া সুপার ইন্টেলিজেন্সের দিকে ছুটে যাওয়ার যুক্তি প্রশ্ন করেন। "কে তাদের সঠিক মনে মনে করে যে শি জিনপিং কোনও চীনা AI কোম্পানিকে এমন কিছু তৈরি করতে সহ্য করবেন যা চীনা সরকারকে উৎখাত করে?" এই দৃষ্টিভঙ্গি সুপার ইন্টেলিজেন্সকে একটি জাতীয় সম্পদ থেকে জাতীয় নিরাপত্তা হুমকিতে পুনরায় ফ্রেম করে—একটি দৃষ্টিভঙ্গি যা Anthropic-এর কালো তালিকাভুক্তির পরে ওয়াশিংটনে আকর্ষণ পেতে পারে।
AI অগ্রগতির গতি নাটকীয়ভাবে শাসন কাঠামোকে ছাড়িয়ে গেছে। টেগমার্ক সাম্প্রতিক গবেষণা উদ্ধৃত করেছেন যা দেখায় যে GPT-4 কঠোরভাবে সংজ্ঞায়িত কৃত্রিম সাধারণ বুদ্ধিমত্তা (AGI) বেঞ্চমার্কের 27% অর্জন করেছে, যখন GPT-5 57% পৌঁছেছে। মাত্র কয়েক বছরে উচ্চ বিদ্যালয় থেকে পিএইচডি-স্তরের সক্ষমতায় এই দ্রুত অগ্রগতি বিশেষজ্ঞরা যাকে "শাসন ফাঁক" বলে তা তৈরি করেছে। নীচের টেবিলটি ত্বরণ চিত্রিত করে:
| বছর | AI মাইলফলক | শাসন প্রতিক্রিয়া |
|---|---|---|
| 2022 | GPT-3 মানুষের মতো টেক্সট জেনারেশন প্রদর্শন করে | স্বেচ্ছাসেবী নৈতিক নির্দেশিকা প্রস্তাবিত |
| 2023 | GPT-4 পেশাদার পরীক্ষা পাস করে | 33,000-স্বাক্ষর বিরতি চিঠি; কোনও বাধ্যতামূলক পদক্ষেপ নেই |
| 2024 | AI আন্তর্জাতিক গণিত অলিম্পিয়াড জিতেছে | খণ্ডিত জাতীয় নীতি উদ্ভূত হয়েছে |
| 2025 | GPT-5 AGI বেঞ্চমার্কের 57% পৌঁছেছে | Pentagon Anthropic-এর বিরুদ্ধে সরবরাহ শৃঙ্খল আইন ব্যবহার করে |
প্রযুক্তিগত সক্ষমতা এবং নিয়ন্ত্রক কাঠামোর মধ্যে এই সংযোগ বিচ্ছিন্নতা টেগমার্ক যাকে "সবচেয়ে বিপজ্জনক সময়কাল" হিসাবে বর্ণনা করেন তা তৈরি করে—যখন সিস্টেমগুলো উল্লেখযোগ্য ক্ষতি করার জন্য যথেষ্ট শক্তিশালী হয়ে ওঠে কিন্তু মূলত অশাসিত থাকে।
Anthropic কালো তালিকাভুক্তি অন্যান্য AI জায়ান্টদের তাদের অবস্থান প্রকাশ করতে বাধ্য করে। OpenAI CEO স্যাম আল্টম্যান দ্রুত নজরদারি এবং স্বায়ত্তশাসিত অস্ত্র সম্পর্কে Anthropic-এর নৈতিক লাল লাইনের সাথে সংহতি ঘোষণা করেছেন। Google প্রকাশের সময় পর্যন্ত স্পষ্টভাবে নীরব ছিল, যখন xAI কোনও প্রকাশ্য বিবৃতি জারি করেনি। টেগমার্ক ভবিষ্যদ্বাণী করেছেন এই মুহূর্তটি "তাদের আসল রঙ দেখাবে" এবং সম্ভাব্যভাবে শিল্প বিভাজন তৈরি করবে। গুরুত্বপূর্ণ প্রশ্ন হয়ে ওঠে কোম্পানিগুলো নিরাপত্তা মান নিয়ে প্রতিযোগিতা অব্যাহত রাখবে নাকি সরকারি চাহিদার দিকে রূপান্তরিত হবে। টেগমার্কের সাক্ষাৎকারের কয়েক ঘন্টা পরে, OpenAI তার নিজস্ব পেন্টাগন চুক্তি ঘোষণা করেছে, সংহতির প্রকাশ্য বিবৃতি সত্ত্বেও কর্পোরেট কৌশলে সম্ভাব্য বিচ্যুতির পরামর্শ দেয়।
টেগমার্ক সম্ভাব্য ইতিবাচক ফলাফল সম্পর্কে সতর্কভাবে আশাবাদী থাকেন। "এখানে এমন একটি সুস্পষ্ট বিকল্প আছে," তিনি ব্যাখ্যা করেন। AI কোম্পানিগুলোকে ফার্মাসিউটিক্যাল বা বিমানচালনা শিল্পের মতো ব্যবহার করা মোতায়েনের আগে কঠোর পরীক্ষা এবং স্বতন্ত্র যাচাইকরণ প্রয়োজন হবে। শক্তিশালী AI সিস্টেমের জন্য এই "ক্লিনিক্যাল ট্রায়াল" মডেল বিপর্যয়কর ঝুঁকি প্রতিরোধ করার সময় উপকারী অ্যাপ্লিকেশন সক্ষম করতে পারে। বর্তমান সংকট স্বেচ্ছাসেবী স্ব-নিয়ন্ত্রণের অস্থিরতা প্রদর্শন করে এই পরিবর্তনকে অনুঘটক করতে পারে। আগামী মাসের জন্য ইতিমধ্যে নির্ধারিত কংগ্রেসনাল শুনানি সম্ভবত জরুরি আইনী পদক্ষেপের প্রমাণ হিসাবে Anthropic মামলা পরীক্ষা করবে। ইউরোপীয় ইউনিয়নের AI আইন, 2026-এ সম্পূর্ণ বাস্তবায়নের জন্য সেট করা হয়েছে, এক নিয়ন্ত্রক মডেল প্রদান করে যা মার্কিন আইন প্রণেতারা অভিযোজিত বা প্রত্যাখ্যান করতে পারেন।
Anthropic Pentagon কালো তালিকা AI স্ব-নিয়ন্ত্রণের মৌলিক ফাঁদ প্রকাশ করে—একটি সিস্টেম যেখানে বাণিজ্যিক এবং সরকারি চাপের অধীনে স্বেচ্ছাসেবী নিরাপত্তা প্রতিশ্রুতি ভেঙে পড়ে। এই সংকট প্রদর্শন করে যে বাধ্যতামূলক আইনি কাঠামো ছাড়া, এমনকি সদিচ্ছাপূর্ণ কোম্পানিগুলোও নৈতিক নীতি এবং বেঁচে থাকার মধ্যে অসম্ভব পছন্দের মুখোমুখি হয়। নিয়ন্ত্রক শূন্যতা ম্যাক্স টেগমার্ক সঠিকভাবে যাকে "কর্পোরেট ক্ষমা" বলে তা তৈরি করে, সম্ভাব্য বিপজ্জনক মোতায়েন অনুমতি দেওয়ার সময় প্রশ্নবিদ্ধ চাহিদা প্রতিরোধকারী কোম্পানিগুলোকে কোনও সুরক্ষা দেয় না। AI সক্ষমতা সুপার ইন্টেলিজেন্সের দিকে ত্বরান্বিত হওয়ার সাথে সাথে, এই ঘটনাটি গুরুতর শাসনের দিকে একটি টার্নিং পয়েন্ট প্রতিনিধিত্ব করতে পারে। বিকল্প—অপ্রয়োগযোগ্য প্রতিশ্রুতিতে অব্যাহত নির্ভরতা—শুধুমাত্র কর্পোরেট স্থিতিশীলতা নয় বরং জাতীয় নিরাপত্তা এবং জনসাধারণের নিরাপত্তাকে ঝুঁকিতে ফেলে। Anthropic ফাঁদ একটি কঠোর সতর্কবাণী হিসাবে কাজ করে: কৃত্রিম বুদ্ধিমত্তায় স্ব-নিয়ন্ত্রণ কেবল অপর্যাপ্ত নয় বরং বিপজ্জনকভাবে অস্থির।
প্রশ্ন 1: পেন্টাগন কেন Anthropic-কে কালো তালিকাভুক্ত করেছে?
প্রতিরক্ষা বিভাগ Anthropic দুটি নির্দিষ্ট অ্যাপ্লিকেশনের জন্য AI প্রযুক্তি তৈরি করতে অস্বীকার করার পরে সম্পর্ক ছিন্ন করেছে: মার্কিন নাগরিকদের ব্যাপক নজরদারি এবং মানুষের ইনপুট ছাড়াই লক্ষ্য নির্বাচন এবং হত্যা করতে সক্ষম স্বায়ত্তশাসিত সশস্ত্র ড্রোন। পেন্টাগন একটি জাতীয় নিরাপত্তা সরবরাহ শৃঙ্খল আইন প্রয়োগ করেছে যা সাধারণত বিদেশী হুমকির বিরুদ্ধে ব্যবহৃত হয়।
প্রশ্ন 2: AI নিয়ন্ত্রণে "কর্পোরেট ক্ষমা" কী?
এই শব্দটি, ম্যাক্স টেগমার্ক দ্বারা ব্যবহৃত, বর্তমান নিয়ন্ত্রক শূন্যতা বর্ণনা করে যেখানে AI কোম্পানিগুলো সম্ভাব্য ক্ষতিকারক মোতায়েনের জন্য কোনও আইনি বিধিনিষেধ বা পরিণতির মুখোমুখি হয় না। ফার্মাসিউটিক্যালস বা বিমানচালনার মতো নিয়ন্ত্রিত শিল্পের বিপরীতে, AI বিকাশকারীরা বাধ্যতামূলক নিরাপত্তা পরীক্ষা বা সার্টিফিকেশন প্রয়োজনীয়তা ছাড়াই পরিচালনা করে।
প্রশ্ন 3: অন্যান্য AI কোম্পানিগুলো Anthropic কালো তালিকায় কীভাবে সাড়া দিয়েছে?
OpenAI CEO স্যাম আল্টম্যান প্রকাশ্যে Anthropic-এর নৈতিক লাল লাইন সমর্থন করেছেন, যদিও OpenAI পরে তার নিজস্ব পেন্টাগন চুক্তি ঘোষণা করেছে। Google প্রাথমিকভাবে নীরব ছিল, যখন xAI কোনও বিবৃতি জারি করেনি। ঘটনাটি কোম্পানিগুলোকে সামরিক AI অ্যাপ্লিকেশনে তাদের অবস্থান প্রকাশ করতে বাধ্য করে।
প্রশ্ন 4: AI নিয়ন্ত্রণের বিরুদ্ধে "চীনের সাথে প্রতিযোগিতা" যুক্তি কী?
AI কোম্পানিগুলো প্রায়ই যুক্তি দেয় যে কোনও নিয়ন্ত্রক মন্থরতা চীনা প্রতিযোগীদের সুবিধা দেবে। টেগমার্ক প্রতিক্রিয়া জানান যে চীন তার নিজস্ব AI বিধিনিষেধ বাস্তবায়ন করছে এবং অনিয়ন্ত্রিত সুপার ইন্টেলিজেন্স উন্নয়ন সমস্ত সরকারকে হুমকি দেয়, এটি একটি সম্পদের পরিবর্তে একটি জাতীয় নিরাপত্তা ঝুঁকি তৈরি করে।
প্রশ্ন 5: বিশেষজ্ঞরা কোন বিকল্প নিয়ন্ত্রক মডেল প্রস্তাব করেন?
অনেক বিশেষজ্ঞ শক্তিশালী AI সিস্টেমগুলোকে ফার্মাসিউটিক্যালস বা বিমানের মতো ব্যবহার করার পক্ষে সমর্থন করেন, মোতায়েনের আগে কঠোর "ক্লিনিক্যাল ট্রায়াল" পরীক্ষা এবং স্বতন্ত্র যাচাইকরণ প্রয়োজন। এটি নিয়ন্ত্রক সংস্থা দ্বারা প্রয়োগ করা বাধ্যতামূলক নিরাপত্তা মান দিয়ে স্বেচ্ছাসেবী নির্দেশিকা প্রতিস্থাপন করবে।
এই পোস্ট Anthropic Pentagon কালো তালিকা: AI স্ব-নিয়ন্ত্রণের বিধ্বংসী ফাঁদ উন্মোচিত প্রথম BitcoinWorld-এ প্রকাশিত হয়েছে।


