هوش مصنوعی باید طبق قوانین بلاک‌چین عمل کنند

هوش مصنوعی باید طبق قوانین بلاک‌چین عمل کند

نسل تازه‌ای از هوش مصنوعی در حال ظهور است؛ سیستم‌هایی که می‌توانند خودشان تصمیم بگیرند، پول خرج کنند و حتی دستورهایشان را تغییر دهند. اما همین توانایی، نگرانی‌های تازه‌ای درباره شفافیت و امنیت به‌وجود آورده است. کارشناسان هشدار می‌دهند که این نوع هوش مصنوعی باید زیر نظر قوانین بلاک‌چین کار کند تا عملکردش شفاف و قابل پیگیری باشد.

نیاز به قوانین فنی برای کنترل هوش مصنوعی

سیستم‌هایی که می‌توانند به‌صورت خودکار ابزارها را فرا بخوانند، هدف تعیین کنند، پول خرج کنند و حتی پرامپت‌های خود را تغییر دهند، دیگر محدود به محیط‌های آزمایشی نیستند؛ آن‌ها در حال ورود به مرحله‌ی اجرا و کاربرد واقعی‌اند. این موج جدید، همان چیزی است که به آن هوش مصنوعی عامل‌محور (Agentic AI) گفته می‌شود.

اما این تغییر، توافق نانوشته‌ای را که در دوران اولیه‌ی هوش مصنوعی بین جامعه و فناوری وجود داشت، به‌طور کامل نادیده می‌گیرد:در آن دوران، خروجی‌های هوش مصنوعی صرفا پیشنهاد بودند و انسان‌ها مسئول تصمیم نهایی بودند.
اکنون اما، عامل‌های هوشمند عمل می‌کنند و با این کار، مسئولیت را از انسان به سیستم منتقل می‌کنند و در را به روی جهانی پر از پیچیدگی‌های اخلاقی می‌گشایند.

اگر سیستمی خودمختار بتواند سوابق را تغییر دهد، محتوا منتشر کند یا وجوه مالی جابه‌جا کند، باید یاد بگیرد طبق قوانین عمل کند و از همه مهم‌تر، باید ردپایی قابل‌پیگیری و ماندگار بر جای بگذارد تا در صورت لزوم بتوان آن را بررسی و راستی‌آزمایی کرد.

در دنیای امروزی، دیگر نمی‌توان تنها با قانون‌گذاری سنتی رفتار هوش مصنوعی را کنترل کرد. به گفته‌ی متخصصان، لازم است از درون سیستم‌ها ساختارهایی ایجاد شود که بتوانند شفاف و پاسخ‌گو عمل کنند.هرچه عامل‌های هوش مصنوعی مستقل‌تر شوند، خطر و مسئولیت آن‌ها نیز بیشتر می‌شود.

وقتی یک معامله اشتباه انجام شود یا محتوای جعلی منتشر شود، دیگر پیام‌ها یا اسکرین‌شات‌ها برای بررسی کافی نیست. باید از لحظه‌ای که داده وارد سیستم می‌شود تا زمانی که تصمیم اجرا می‌گردد، همه چیز قابل‌ردیابی و اثبات باشد.به زبان ساده، هر تصمیم و هر اقدام باید سند و مدرک قابل اثبات داشته باشد.

چرا عامل‌ها باید هویت واقعی داشته باشند؟

در چنین محیطی، فقط داشتن «نام کاربری» یا «شناسه» کافی نیست. هر عامل باید یک هویت دیجیتال واقعی و قابل تایید داشته باشد تا بتوان مشخص کرد چه کسی تصمیم گرفته و چه کاری انجام داده است.

استاندارد جدیدی به نام Verifiable Credentials (اعتبارنامه‌های قابل‌تایید) توسط کنسرسیوم جهانی W3C معرفی شده است. این استاندارد روشی فراهم می‌کند تا بتوان نقش، مجوز و مسئولیت هر عامل را به‌طور رسمی به هویت او متصل کرد.

اگر این سیستم با مدیریت کلیدهای رمزنگاری و سیاست‌های امنیتی حساب‌های هوشمند (Smart Accounts) ترکیب شود، هر عامل می‌تواند پیش از انجام هر اقدامی مشخص کند «چه کسی است» و «به انجام چه کاری مجاز است».

در این مدل، هویت دیجیتال به نوعی مجوز شفاف برای فعالیت در شبکه‌های مختلف تبدیل می‌شود که رفتار هر عامل را قابل‌پیگیری و کنترل‌پذیر می‌سازد.

عامل‌های هوش مصنوعی بر اساس داده‌هایی که دریافت می‌کنند تصمیم می‌گیرند، اما اگر این داده‌ها جعلی یا ناقص باشند، همه‌ی تصمیم‌ها زیر سوال می‌رود.برای حل این مشکل، استانداردی به نام C2PA (ثبت شناسنامه‌ی دیجیتال برای هر محتوا) طراحی شده است. این استاندارد اجازه می‌دهد فایل‌ها، عکس‌ها و ویدیوها با امضای رمزنگاری‌شده منتشر شوند تا منبع اصلی آن‌ها قابل شناسایی باشد.

شرکت‌هایی مانند گوگل و ادوبی در حال اجرای این سیستم هستند. گوگل در جستجوهایش از این امضاهای دیجیتال استفاده می‌کند و ادوبی هم ابزارهایی برای افزودن و بررسی آن‌ها در محتواهای عمومی ساخته است.

با این روش، هر داده دیجیتال همراه با «زنجیره‌ی مالکیت و منبع» خود منتشر می‌شود. در نتیجه، عامل‌هایی که فقط داده‌های امضاشده را می‌پذیرند و خروجی معتبر تولید می‌کنند، قابل اعتمادتر و قانون‌مندتر خواهند بود.

امضای تصمیم‌ها، راهی برای جلوگیری از خطا و سوءاستفاده

این ایده فقط برای محتوا نیست؛ بلکه باید به تصمیمات و اقدامات درونی سیستم‌ها هم گسترش یابد.برای مثال، وقتی یک عامل از یک سرویس اطلاعاتی پاسخی دریافت می‌کند، آن پاسخ باید امضاشده و زمان‌گذاری شود (Timestamp). سپس تصمیم بعدی آن عامل نیز باید با امضای دیجیتال ثبت شود.

اگر چنین سیستمی وجود نداشته باشد، در صورت بروز اشتباه یا خطا، بررسی آن به حدس و گمان محدود می‌شود.
اما با وجود امضاهای دیجیتال، هر عمل و تصمیم به‌صورت رمزنگاری‌شده و قابل‌اثبات به هویت و مجوز عامل مرتبط می‌شود.

به این ترتیب، بررسی تصمیم‌های هوش مصنوعی از یک فرایند ذهنی به یک تحلیل دقیق بر پایه داده‌های واقعی و قابل بازبینی تبدیل می‌شود.

بلاک‌چین؛ ستون شفافیت و اعتماد

بلاک‌چین می‌تواند نقش دفتر ثبت مرکزی را برای تمام تصمیم‌ها و اقدامات عامل‌های هوش مصنوعی ایفا کند.

با ثبت این داده‌ها در شبکه بلاک‌چین، یک مسیر شفاف و غیرقابل‌تغییر از عملکرد سیستم‌ها ایجاد می‌شود.
در چنین ساختاری، پژوهشگران می‌توانند رفتار عامل‌ها را بازسازی کنند، طرف‌های مقابل می‌توانند اصالت تصمیم‌ها را تأیید کنند و نهادهای نظارتی هم می‌توانند عملکرد آن‌ها را به‌صورت زنده، نه پس از وقوع خطا بررسی کنند.

در نتیجه، «جعبه سیاه» هوش مصنوعی جای خود را به جعبه شیشه‌ای می‌دهد؛ جایی‌که هر تصمیم، دلیل و نتیجه‌اش روشن و قابل بررسی است.

شرکت‌هایی که بتوانند نشان دهند داده‌هایشان از منابع معتبر به‌دست آمده، تصمیم‌هایشان قانون‌مند است و عامل‌هایشان رفتار قابل اثباتی دارند، اعتماد بیشتری از سوی کاربران و نهادهای رسمی خواهند داشت.

این شرکت‌ها دیگر نیازی به طی کردن مراحل طولانی تأیید یا بازرسی نخواهند داشت، چون می‌توانند ثابت کنند چه کاری انجام داده‌اند و چرا. به این ترتیب، کنترل و نظارت از حالت سخت‌گیرانه و بازدارنده به اعتماد و همکاری تبدیل می‌شود، تغییری که رشد بازار و پذیرش هوش مصنوعی را سرعت می‌بخشد.

آینده‌ی عامل‌های هوش مصنوعی

در آینده، دو نوع عامل در دنیای هوش مصنوعی وجود خواهد داشت:

عامل‌های شفاف و قابل بررسی که می‌توانند در شبکه‌های رسمی فعالیت کنند و عامل‌های مبهم و غیرقابل‌پیگیری که از این شبکه‌ها حذف خواهند شد.بنابراین، ساخت یک چارچوب فنی بر پایه‌ی هویت دیجیتال، داده‌های امضاشده و سوابق غیرقابل‌تغییر دیگر یک انتخاب نیست، بلکه پیش‌نیاز ورود به بازارهای آینده‌ی فناوری است.

منبع:crypto.news 

Rate this post

مهدی ریاحی
مهدی ریاحی

عاشق دنیای صفر و یک و در حال تست باکس...

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *