توسط اریکا فیله تی. لگارا در مقاله قبلی BusinessWorld، من استدلال کردم که حاکمیت هوش مصنوعی فراتر از نظارت بر تعداد محدودی از پروژه‌های فناوری است و اکنون شاملتوسط اریکا فیله تی. لگارا در مقاله قبلی BusinessWorld، من استدلال کردم که حاکمیت هوش مصنوعی فراتر از نظارت بر تعداد محدودی از پروژه‌های فناوری است و اکنون شامل

آنچه هیئت‌های مدیره باید از هوش مصنوعی مطالبه کنند: ارزیابی، حسابرسی و اطمینان

2026/03/24 00:03
مدت مطالعه: 8 دقیقه
برای ارائه بازخورد یا طرح هرگونه نگرانی درباره این محتوا، لطفاً با ما از طریق crypto.news@mexc.com تماس بگیرید.

نوشته اریکا فیل تی. لگارا

در مقاله قبلی BusinessWorld، من استدلال کردم که حاکمیت هوش مصنوعی فراتر از نظارت بر تعدادی پروژه فناوری است و اکنون شامل اطمینان از این است که تصمیمات مبتنی بر هوش مصنوعی در سراسر سازمان همچنان با استراتژی، میزان ریسک‌پذیری و استانداردهای اخلاقی همسو باقی بمانند. یک سوال طبیعی برای هیئت‌مدیره این است: فراتر از تعیین انتظارات، چگونه یک سازمان تأیید می‌کند که سیستم‌های هوش مصنوعی آن واقعاً همانطور که در نظر گرفته شده، به طور مسئولانه و در محدوده‌های تعریف‌شده عمل می‌کنند؟

پاسخ در سه رشته مرتبط اما متمایز نهفته است: ارزیابی ریسک هوش مصنوعی، حسابرسی هوش مصنوعی و تضمین هوش مصنوعی. هیئت‌مدیره‌هایی که با نظارت مالی آشنا هستند، منطق را بدیهی خواهند یافت. چالش و فرصت، اعمال همان نظم و انضباط در مورد هوش مصنوعی است.

۳ مفهوم متمایز اما مرتبط
دقیق بودن در مورد معنای هر اصطلاح مفید است، زیرا اغلب به جای یکدیگر استفاده می‌شوند در حالی که نباید اینطور باشد.

ارزیابی ریسک هوش مصنوعی فرآیند داخلی است که طی آن یک سازمان ریسک‌های مرتبط با سیستم‌های هوش مصنوعی خود را شناسایی، ارزیابی و اولویت‌بندی می‌کند. این فرآیند می‌پرسد چه چیزی ممکن است اشتباه پیش برود، چقدر محتمل است و تأثیر آن چه خواهد بود. این پایه‌ای است که همه چیز دیگر بر روی آن استوار است. بدون یک ارزیابی ریسک معتبر، نه حسابرسی و نه تضمین، خط پایه معناداری برای کار کردن ندارند. سیستم‌های هوش مصنوعی مهم در هر بخشی وجود دارند: یک مدل امتیازدهی اعتباری در بانک، یک ابزار تریاژ بیمار در بیمارستان، یک پیش‌بینی‌کننده عملکرد دانش‌آموز در دانشگاه، یک سیستم اولویت‌بندی پرونده در یک سازمان دولتی. آنچه آنها مشترک دارند، پیامد است که شامل خروجی‌هایی است که بر افراد واقعی به روش‌های معنادار تأثیر می‌گذارد.

برای هر چنین سیستمی، ارزیابی ریسک باید سیستماتیک، مستند و به طور منظم با تکامل مدل و تغییر محیط عملیاتی مورد بازنگری قرار گیرد.

حسابرسی هوش مصنوعی بررسی مستقل این است که آیا یک سیستم هوش مصنوعی یا چارچوب حاکمیتی پیرامون آن با استانداردها، سیاست‌ها یا الزامات تعریف‌شده مطابقت دارد یا خیر. این یک فرآیند مبتنی بر شواهد است که توسط طرفی به اندازه کافی مستقل از مسئولان سیستم مورد بررسی انجام می‌شود. یک حسابرسی هوش مصنوعی ممکن است ارزیابی کند که آیا شیوه‌های مدیریت هوش مصنوعی یک سازمان با یک استاندارد بین‌المللی شناخته‌شده مانند ISO/IEC 42001، اولین استاندارد سیستم مدیریت هوش مصنوعی جهان که در سال ۲۰۲۳ منتشر شد، مطابقت دارد یا خیر، یا اینکه آیا یک مدل خاص در محدوده پارامترهای تأیید‌شده و بدون تعصب ناخواسته عمل می‌کند. نکته مهم این است که استاندارد حاکم بر خود حسابرسان، ISO/IEC 42006، که در ژوئیه ۲۰۲۵ منتشر شد، اکنون صلاحیت و دقت مورد نیاز نهادهایی که سیستم‌های مدیریت هوش مصنوعی را حسابرسی و تأیید می‌کنند را تعیین می‌کند. به عبارت دیگر، حرفه حسابرسی در حال رسمی کردن پاسخگویی خود برای مشارکت‌های هوش مصنوعی است.

تضمین هوش مصنوعی نتیجه‌گیری رسمی و رو به ذی‌نفعان است که از آن فرآیند حسابرسی پدید می‌آید. این نظر حرفه‌ای است که توسط یک طرف واجد شرایط و مستقل صادر می‌شود که به هیئت‌مدیره، تنظیم‌کنندگان، سرمایه‌گذاران و عموم اطمینان می‌دهد که یک سیستم هوش مصنوعی یا چارچوب مدیریت هوش مصنوعی با یک استاندارد تعریف‌شده مطابقت دارد. تضمین چیزی است که یک بررسی داخلی را به یک سیگنال خارجی معتبر تبدیل می‌کند.

پایه‌گذاری تضمین هوش مصنوعی
مفهوم تضمین مستقل برای هیئت‌مدیره جدید نیست. هر سال، حسابرسان خارجی صورت‌های مالی یک سازمان را بررسی می‌کنند و نظری صادر می‌کنند؛ نتیجه‌گیری مبتنی بر شواهد، انجام‌شده تحت استانداردهای بین‌المللی شناخته‌شده و مبتنی بر استقلال حرفه‌ای حسابرس. این نظر دقیقاً به این دلیل وزن دارد که چارچوب حاکم بر آن دقیق و تثبیت‌شده است. این منطق بدون توجه به صنعت اعمال می‌شود؛ چه سازمان یک بانک، بیمارستان، شرکت بزرگ یا یک موسسه عمومی باشد، حسابرسی مالی یک مکانیزم آشنا و قابل اعتماد است.

همان منطق اکنون برای هوش مصنوعی اعمال می‌شود. وقتی یک سازمان ادعای عمومی یا نظارتی در مورد سیستم‌های هوش مصنوعی خود مطرح می‌کند که آنها منصفانه، شفاف، مطابق با یک استاندارد تعریف‌شده یا عاری از تعصب مادی هستند، سوال این است: چه کسی به طور مستقل آن ادعا را تأیید می‌کند و تحت چه چارچوب حرفه‌ای؟

پاسخ، برای حرفه حسابداری و حسابرسی، ISAE 3000 است، استاندارد بین‌المللی در مورد مشارکت‌های تضمین صادر شده توسط هیئت استانداردهای بین‌المللی حسابرسی و تضمین (IAASB). ISAE 3000 مشارکت‌های تضمین را در موضوعات غیر از اطلاعات مالی تاریخی حاکم می‌کند و آن را به خانه طبیعی برای تضمین هوش مصنوعی تبدیل می‌کند. تحت این استاندارد، یک حرفه‌ای می‌تواند یک مشارکت تضمین معقول، استاندارد بالاتر مشابه یک حسابرسی مالی، یا یک مشارکت تضمین محدود را که از نظر عمق به یک بررسی نزدیک‌تر است، انجام دهد. انتخاب سطح مهم است و باید عمدی باشد، متناسب با اهمیت و ریسک سیستم هوش مصنوعی مورد نظر.

یک موازی معاصر نزدیک، تضمین پایداری یا ESG است. بسیاری از شرکت‌های فهرست‌شده فیلیپین در حال حاضر در حال سفارش تضمین مستقل بر افشای پایداری خود هستند، اغلب تحت ISAE 3000. مکانیک دقیقاً یکسان است: یک متخصص مستقل مجموعه‌ای از ادعاها را در برابر معیارهای تعریف‌شده بررسی می‌کند و یک نتیجه‌گیری رسمی صادر می‌کند. موضوع متفاوت است؛ نظم و انضباط حرفه‌ای متفاوت نیست.

این برای هیئت‌مدیره چه معنایی دارد
سه پیامد عملی از این چارچوب ناشی می‌شود.

اول، هیئت‌مدیره باید بپرسند که آیا سازمان‌های آنها ارزیابی ریسک دقیق هوش مصنوعی را در سیستم‌های مهم انجام داده‌اند یا خیر. نه یک تمرین یکباره، بلکه یک فرآیند زنده که با آموزش مجدد مدل‌ها، گسترش موارد استفاده و تکامل محیط نظارتی به‌روزرسانی می‌شود. کیفیت کار حسابرسی و تضمین بعدی فقط به خوبی ارزیابی ریسکی است که قبل از آن انجام می‌شود.

دوم، هیئت‌مدیره باید بین حسابرسی داخلی و خارجی هوش مصنوعی تمایز قائل شوند. عملکردهای حسابرسی داخلی نقش حیاتی در ارائه تضمین دارند که کنترل‌های هوش مصنوعی همانطور که طراحی شده‌اند عمل می‌کنند. با این حال، هیئت‌مدیره باید همچنین در نظر بگیرند که آیا یک حسابرسی مستقل شخص ثالث از سیستم‌های هوش مصنوعی مهم موجه است یا خیر، به ویژه برای سیستم‌هایی که بر مشتریان، کارکنان یا عموم به روش‌های مهم تأثیر می‌گذارند. همانند حسابرسی مالی، استقلال اعتبار را تقویت می‌کند.

سوم، همانطور که سازمان‌ها به طور فزاینده‌ای تعهدات عمومی در مورد شیوه‌های هوش مصنوعی خود به تنظیم‌کنندگان، سرمایه‌گذاران و جوامعی که خدمت می‌کنند، ارائه می‌دهند، هیئت‌مدیره باید بپرسند که آیا آن تعهدات با تضمین معتبر پشتیبانی می‌شوند یا خیر. ادعاهای بدون اعتبارسنجی مستقل، در بهترین حالت، یک ریسک شهرتی هستند که منتظر تحقق هستند.

حرفه‌ای که هنوز در حال ساخت قابلیت‌های خود است
ارائه این چشم‌انداز بدون اذعان به محدودیت‌های فعلی آن ناقص خواهد بود. زیرساخت برای تضمین هوش مصنوعی هنوز در حال ساخت است. استانداردهای حرفه‌ای در حال ظهور هستند. صلاحیت‌های حسابرس در هوش مصنوعی، شامل یادگیری ماشین، تعصب الگوریتمی، حاکمیت داده و شفافیت مدل، هنوز به طور یکنواخت در سراسر حرفه توسعه نیافته‌اند. ISAE 3000 چارچوب تضمین را فراهم می‌کند، اما روش‌های خاص هوش مصنوعی که در آن قرار دارند هنوز در حال بلوغ هستند.

برای سازمان‌هایی که هنوز آماده دنبال کردن تضمین رسمی نیستند، این دلیلی برای ایستادن نیست. یک ارزیابی ساختاریافته و منظم از سیستم‌های هوش مصنوعی مهم یک گام اول معنادار و عملی است. این نظم و انضباط داخلی، مستندسازی و عادات حاکمیتی را ایجاد می‌کند که آماده‌سازی تضمین در نهایت نیاز دارد. هیئت‌مدیره‌هایی که امروز چنین ارزیابی‌هایی را سفارش می‌دهند، حتی به طور غیررسمی، در حال توسعه عضلات سازمانی هستند که وقتی انتظارات نظارتی سخت‌تر می‌شوند و بررسی ذی‌نفعان تشدید می‌شود، مهم خواهند بود.

این دیدگاه یکی از مواردی است که من عمیق‌تر در تحقیقاتی که با همکاران در حال توسعه آن بوده‌ام، بررسی کرده‌ام که حاکمیت هوش مصنوعی تولیدی را در اقتصادهایی که مقررات هنوز با فناوری همگام نشده، بررسی می‌کند. استدلال اصلی این است که شرکت‌ها در حال حاضر عوامل اخلاقی با تعهدات اخلاقی موجود به ذی‌نفعان خود هستند؛ انتظار برای قانون‌گذاری هوش مصنوعی سفارشی نه لازم و نه کافی برای حاکمیت مسئولانه است. تعهد به عمل در حال حاضر وجود دارد. آنچه مورد نیاز است اراده سازمانی برای عملیاتی کردن آن است.

این دلیلی برای هیئت‌مدیره برای انتظار در مورد دستور کار گسترده‌تر نیست. این دلیلی است برای پرسیدن سوالات آگاهانه در حال حاضر، از حسابرسان خارجی، عملکردهای حسابرسی داخلی و تیم‌های مدیریتی آنها، به طوری که وقتی قابلیت‌های حرفه با تقاضا همگام می‌شود، سازمان‌های آنها آماده درگیر شدن معنادار باشند.

حسابرسی مالی به طور کامل ظهور نکرد. دهه‌ها استانداردگذاری، توسعه حرفه‌ای و درس‌های سخت از شکست‌های شرکتی طول کشید تا حسابرسی مستقل به موسسه معتبری که امروز است تبدیل شود. تضمین هوش مصنوعی در یک نقطه عطف اولیه قابل مقایسه است. هیئت‌مدیره‌هایی که اکنون با آن درگیر می‌شوند، سوالات دقیق‌تری از حسابرسان خود می‌پرسند، بیش از ادعاهای مدیریتی تقاضا می‌کنند و قابلیت‌های داخلی را قبل از اینکه تنظیم‌کنندگان آنها را ملزم کنند، ایجاد می‌کنند، نه تنها قرار گرفتن خود را کاهش می‌دهند. آنها به شکل‌دادن به این کمک می‌کنند که پاسخگویی مسئولانه هوش مصنوعی برای سازمان‌های فیلیپینی و منطقه گسترده‌تر چگونه به نظر می‌رسد.

اریکا فیل تی. لگارا یک فیزیکدان، مربی و متخصص علم داده و هوش مصنوعی است که در دولت، دانشگاه و صنعت کار می‌کند. او اولین مدیر مدیریت و مدیر ارشد هوش مصنوعی و داده مرکز آموزشی برای تحقیقات هوش مصنوعی، و استاد دانشیار و رئیس Aboitiz در علم داده در موسسه مدیریت آسیا است، جایی که او اولین برنامه کارشناسی ارشد در علم داده کشور را از سال ۲۰۱۷ تا ۲۰۲۴ تأسیس و رهبری کرد. او در هیئت‌مدیره شرکت‌ها خدمت می‌کند، عضو موسسه مدیران شرکتی، متخصص حرفه‌ای گواهی‌شده حاکمیت هوش مصنوعی IAPP و یکی از بنیانگذاران CorteX Innovations است.

سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل crypto.news@mexc.com با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.