فهرست مطالب
Toggleنسل تازهای از هوش مصنوعی در حال ظهور است؛ سیستمهایی که میتوانند خودشان تصمیم بگیرند، پول خرج کنند و حتی دستورهایشان را تغییر دهند. اما همین توانایی، نگرانیهای تازهای درباره شفافیت و امنیت بهوجود آورده است. کارشناسان هشدار میدهند که این نوع هوش مصنوعی باید زیر نظر قوانین بلاکچین کار کند تا عملکردش شفاف و قابل پیگیری باشد.
نیاز به قوانین فنی برای کنترل هوش مصنوعی
سیستمهایی که میتوانند بهصورت خودکار ابزارها را فرا بخوانند، هدف تعیین کنند، پول خرج کنند و حتی پرامپتهای خود را تغییر دهند، دیگر محدود به محیطهای آزمایشی نیستند؛ آنها در حال ورود به مرحلهی اجرا و کاربرد واقعیاند. این موج جدید، همان چیزی است که به آن هوش مصنوعی عاملمحور (Agentic AI) گفته میشود.
اما این تغییر، توافق نانوشتهای را که در دوران اولیهی هوش مصنوعی بین جامعه و فناوری وجود داشت، بهطور کامل نادیده میگیرد:در آن دوران، خروجیهای هوش مصنوعی صرفا پیشنهاد بودند و انسانها مسئول تصمیم نهایی بودند.
اکنون اما، عاملهای هوشمند عمل میکنند و با این کار، مسئولیت را از انسان به سیستم منتقل میکنند و در را به روی جهانی پر از پیچیدگیهای اخلاقی میگشایند.
اگر سیستمی خودمختار بتواند سوابق را تغییر دهد، محتوا منتشر کند یا وجوه مالی جابهجا کند، باید یاد بگیرد طبق قوانین عمل کند و از همه مهمتر، باید ردپایی قابلپیگیری و ماندگار بر جای بگذارد تا در صورت لزوم بتوان آن را بررسی و راستیآزمایی کرد.
در دنیای امروزی، دیگر نمیتوان تنها با قانونگذاری سنتی رفتار هوش مصنوعی را کنترل کرد. به گفتهی متخصصان، لازم است از درون سیستمها ساختارهایی ایجاد شود که بتوانند شفاف و پاسخگو عمل کنند.هرچه عاملهای هوش مصنوعی مستقلتر شوند، خطر و مسئولیت آنها نیز بیشتر میشود.
وقتی یک معامله اشتباه انجام شود یا محتوای جعلی منتشر شود، دیگر پیامها یا اسکرینشاتها برای بررسی کافی نیست. باید از لحظهای که داده وارد سیستم میشود تا زمانی که تصمیم اجرا میگردد، همه چیز قابلردیابی و اثبات باشد.به زبان ساده، هر تصمیم و هر اقدام باید سند و مدرک قابل اثبات داشته باشد.
چرا عاملها باید هویت واقعی داشته باشند؟
در چنین محیطی، فقط داشتن «نام کاربری» یا «شناسه» کافی نیست. هر عامل باید یک هویت دیجیتال واقعی و قابل تایید داشته باشد تا بتوان مشخص کرد چه کسی تصمیم گرفته و چه کاری انجام داده است.
استاندارد جدیدی به نام Verifiable Credentials (اعتبارنامههای قابلتایید) توسط کنسرسیوم جهانی W3C معرفی شده است. این استاندارد روشی فراهم میکند تا بتوان نقش، مجوز و مسئولیت هر عامل را بهطور رسمی به هویت او متصل کرد.
اگر این سیستم با مدیریت کلیدهای رمزنگاری و سیاستهای امنیتی حسابهای هوشمند (Smart Accounts) ترکیب شود، هر عامل میتواند پیش از انجام هر اقدامی مشخص کند «چه کسی است» و «به انجام چه کاری مجاز است».
در این مدل، هویت دیجیتال به نوعی مجوز شفاف برای فعالیت در شبکههای مختلف تبدیل میشود که رفتار هر عامل را قابلپیگیری و کنترلپذیر میسازد.
عاملهای هوش مصنوعی بر اساس دادههایی که دریافت میکنند تصمیم میگیرند، اما اگر این دادهها جعلی یا ناقص باشند، همهی تصمیمها زیر سوال میرود.برای حل این مشکل، استانداردی به نام C2PA (ثبت شناسنامهی دیجیتال برای هر محتوا) طراحی شده است. این استاندارد اجازه میدهد فایلها، عکسها و ویدیوها با امضای رمزنگاریشده منتشر شوند تا منبع اصلی آنها قابل شناسایی باشد.
شرکتهایی مانند گوگل و ادوبی در حال اجرای این سیستم هستند. گوگل در جستجوهایش از این امضاهای دیجیتال استفاده میکند و ادوبی هم ابزارهایی برای افزودن و بررسی آنها در محتواهای عمومی ساخته است.
با این روش، هر داده دیجیتال همراه با «زنجیرهی مالکیت و منبع» خود منتشر میشود. در نتیجه، عاملهایی که فقط دادههای امضاشده را میپذیرند و خروجی معتبر تولید میکنند، قابل اعتمادتر و قانونمندتر خواهند بود.
امضای تصمیمها، راهی برای جلوگیری از خطا و سوءاستفاده
این ایده فقط برای محتوا نیست؛ بلکه باید به تصمیمات و اقدامات درونی سیستمها هم گسترش یابد.برای مثال، وقتی یک عامل از یک سرویس اطلاعاتی پاسخی دریافت میکند، آن پاسخ باید امضاشده و زمانگذاری شود (Timestamp). سپس تصمیم بعدی آن عامل نیز باید با امضای دیجیتال ثبت شود.
اگر چنین سیستمی وجود نداشته باشد، در صورت بروز اشتباه یا خطا، بررسی آن به حدس و گمان محدود میشود.
اما با وجود امضاهای دیجیتال، هر عمل و تصمیم بهصورت رمزنگاریشده و قابلاثبات به هویت و مجوز عامل مرتبط میشود.
به این ترتیب، بررسی تصمیمهای هوش مصنوعی از یک فرایند ذهنی به یک تحلیل دقیق بر پایه دادههای واقعی و قابل بازبینی تبدیل میشود.
بلاکچین؛ ستون شفافیت و اعتماد
بلاکچین میتواند نقش دفتر ثبت مرکزی را برای تمام تصمیمها و اقدامات عاملهای هوش مصنوعی ایفا کند.
با ثبت این دادهها در شبکه بلاکچین، یک مسیر شفاف و غیرقابلتغییر از عملکرد سیستمها ایجاد میشود.
در چنین ساختاری، پژوهشگران میتوانند رفتار عاملها را بازسازی کنند، طرفهای مقابل میتوانند اصالت تصمیمها را تأیید کنند و نهادهای نظارتی هم میتوانند عملکرد آنها را بهصورت زنده، نه پس از وقوع خطا بررسی کنند.
در نتیجه، «جعبه سیاه» هوش مصنوعی جای خود را به جعبه شیشهای میدهد؛ جاییکه هر تصمیم، دلیل و نتیجهاش روشن و قابل بررسی است.
شرکتهایی که بتوانند نشان دهند دادههایشان از منابع معتبر بهدست آمده، تصمیمهایشان قانونمند است و عاملهایشان رفتار قابل اثباتی دارند، اعتماد بیشتری از سوی کاربران و نهادهای رسمی خواهند داشت.
این شرکتها دیگر نیازی به طی کردن مراحل طولانی تأیید یا بازرسی نخواهند داشت، چون میتوانند ثابت کنند چه کاری انجام دادهاند و چرا. به این ترتیب، کنترل و نظارت از حالت سختگیرانه و بازدارنده به اعتماد و همکاری تبدیل میشود، تغییری که رشد بازار و پذیرش هوش مصنوعی را سرعت میبخشد.
آیندهی عاملهای هوش مصنوعی
در آینده، دو نوع عامل در دنیای هوش مصنوعی وجود خواهد داشت:
عاملهای شفاف و قابل بررسی که میتوانند در شبکههای رسمی فعالیت کنند و عاملهای مبهم و غیرقابلپیگیری که از این شبکهها حذف خواهند شد.بنابراین، ساخت یک چارچوب فنی بر پایهی هویت دیجیتال، دادههای امضاشده و سوابق غیرقابلتغییر دیگر یک انتخاب نیست، بلکه پیشنیاز ورود به بازارهای آیندهی فناوری است.
منبع:crypto.news