قبل أسابيع من إطلاق بروتوكول إقراض لامركزي رائد، قام مدقق ذكاء اصطناعي بتحديد ثغرة أمنية كانت ستسمح للمهاجمين بسحب الأموال بهدوء.
كان الخلل بسيطًا في التصميم لكنه شديد التأثير. قامت وظيفة السحب بتقريب المعاملات الصغيرة إلى "صفر" في أرصدة المستخدمين مع الاستمرار في إرسال الرموز من الاحتياطيات. من خلال تكرار الإجراء في حلقة آلية، كان بإمكان المهاجم استنزاف المجموعة بالكامل - ما يقرب من 2 مليون دولار في إجمالي القيمة المغلقة (TVL)، حتى مع رصيد صفري.
لو وصل هذا الخلل إلى الشبكة الرئيسية، لكانت العواقب فورية. ستفشل عمليات السحب، وسيتوقف الإقراض، وسيكتشف المودعون أن الاحتياطيات لم تعد تتطابق مع الودائع. القول بأن التداعيات كانت ستكون سيئة هو تقليل من شأنها.
بدلاً من ذلك، تم إصلاح الثغرة قبل النشر. لم يأت الاكتشاف من فريق بشري، بل من شيرلوك AI كجزء من موجة من الأنظمة الآلية التي تدخل الآن في عملية الأمان.
تعتبر عمليات تدقيق العقود الذكية طقسًا قياسيًا قبل الإطلاق في DeFi. تقوم البروتوكولات بتوظيف مهندسين بشريين لمراجعة الكود، وظيفة بوظيفة، بحثًا عن نقاط الضعف. أوقفت عمليات التدقيق هذه عددًا لا يحصى من الثغرات من الوصول إلى الإنتاج، لكنها مقيدة: مكلفة، وتستغرق وقتًا، وتعتمد في النهاية على التركيز البشري.
مع نمو البروتوكولات في الحجم والتعقيد (ومليارات الدولارات من ودائع المستخدمين على المحك)، اضطرت الصناعة إلى البحث عن مناهج جديدة.
تتعامل أنظمة الذكاء الاصطناعي مع المشكلة بشكل مختلف. يمكنها فحص الكود باستمرار، وتحديد الغرائب الرياضية، وأخطاء المنطق، والحالات الحدية المغفلة بسرعة الآلة. إنها لا تحل محل المراجعين البشريين، لكنها تضيف مجموعة أخرى من العيون التي لا تتعب ويمكن تشغيلها عبر كل التزام جديد.
توضح مشكلة الإقراض البالغة 2 مليون دولار قيمة هذا النموذج. ما بدا وكأنه حساب تقريبي غير ضار كان سيكون كارثيًا في الممارسة العملية. قام نظام الذكاء الاصطناعي بتحديده قبل أن تتاح للمهاجمين الفرصة.
كانت شيرلوك من بين الشركات الأولى التي قامت بتشغيل تدقيق الذكاء الاصطناعي. أنتج نظامها تقريرًا منظمًا عن خلل الإقراض: أين ظهر الخطأ، وكيف يمكن استغلاله، وكيف قد تبدو العواقب المالية.
"أظهر اكتشاف هذه المشكلة أن مدققي الذكاء الاصطناعي يغيرون النتائج بالفعل،" كما قال أحد أعضاء فريق شيرلوك. "لم يعودوا نظريين بعد الآن. إنهم يكشفون عن أخطاء قد لا تلتقطها عمليات التدقيق البشرية."
بينما قدمت شيرلوك المثال، فإن القصة الأوسع تدور حول وصول فئة جديدة. تمامًا كما أصبحت شركات التدقيق المهنية معيارًا لمشاريع DeFi، بدأ مدققو الذكاء الاصطناعي في حفر مكانهم في العملية.
لقد خسر DeFi بالفعل مليارات الدولارات بسبب الأخطاء وعيوب المنطق. كل حادث لا يفرغ المحافظ فحسب، بل يقوض الثقة في البلوكتشين ككل. وعد مدققي الذكاء الاصطناعي ليس الكمال، بل دفاع إضافي - طريقة لكشف الأخطاء على نطاق واسع وتقليل احتمالية تسرب الثغرات الضارة.
قد يصبح الجمع بين المراجعة البشرية والإشراف بالذكاء الاصطناعي هو المعيار الجديد قريبًا. يعد اكتشاف الـ 2 مليون دولار أحد أولى نقاط الإثبات العامة لهذا التحول.
لم يصل الخلل أبدًا إلى الشبكة الرئيسية، لكنه قد يشكل نقطة تحول. بالنسبة للبروتوكولات، ينتج مدققو الذكاء الاصطناعي بالفعل نتائج ملموسة، ويمنعون الخسائر، ويعيدون تشكيل كيفية تفكير الفرق في أمان ما قبل الإطلاق.
قد يتم تذكر هذه اللحظة أقل للخلل نفسه مما تمثله: ظهور مدققي الذكاء الاصطناعي كفئة جديدة في أمان Web3.
تصف شيرلوك نفسها بأنها شريك أمان لدورة الحياة الكاملة للعقود الذكية، حيث تجمع بين الباحثين، والاختبار التنافسي، وأنظمة الذكاء الاصطناعي، والتغطية المالية. تدعم الشركة البروتوكولات من البناء خلال الإطلاق والتحديثات المستمرة، وتتعامل مع الأمان كعملية مستمرة بدلاً من حدث واحد. الأسبوع الماضي، أضافت شيرلوك شيرلوك AI إلى مجموعتها، مقدمة مراجعة الكود الآلية المصممة لتعزيز عمليات التدقيق البشرية بالمراقبة المستمرة.
:::tip تم نشر هذه القصة كبيان صحفي من قبل Btcwire ضمن برنامج التدوين التجاري لـ HackerNoon. قم بإجراء البحث الخاص بك قبل اتخاذ أي قرار مالي.
:::
\ \
\n