چالش‌های نظام‌های حقوقی با هوش مصنوعی

مهدی پورصفا: شاید تا همین ده سال پیش استفاده از هوش مصنوعی و نقش آن در زندگی عادی ما تنها محدود به مواردی محدود و بسیار فنی بود که جز اهل فن توانایی فهم آن را نداشتند اما حالا می‌توان گفت هوش مصنوعی جزیی از زندگی عادی ما است. امروز خودروهای خودران که توانمندی هدایت خودروها را بدون دخالت انسان داشته باشند، در مرز دریافت مجوز از نهادی‌های قانونگذاری است. الگوریتم‌های تحلیل گر در شرکت‌های بیمه ریسک ابتلای هر مشتری را به بیماری با استفاده از داده‌های قبلی و سبک زندگی شخص استخراج کرده و حق بیمه سودده را برای طرف مقابل محاسبه می‌کنند.

نرم افزارهای امنیتی که در خدمت نهادهای امنیتی و انتظامی هستند، امکان ارتکاب و تکرار آن از سوی افراد دارای سوء سابقه را محاسبه کرده و در صورت لزوم محل حضور آنان را به مراکز مراقبتی اطلاع می‌دهند. هوش مصنوعی شاید زندگی را برای بسیاری از ما سهل‌تر کرده باشد. اما در ادامه سوالات جدی را به خصوص در حوزه قانونی و قضائی پدید می‌آورد.
به عنوان مثال هم اکنون بسیاری از ارتش‌های جهان در حال ساخت جنگنده و یا ربات‌های جنگجویی هستند که بدون کاربر و تنها با هوش مصنوعی کار کنند. آیا سپردن کنترل شلیک یک سلاح به یک یک برنامه رایانه‌ای اخلاقی است. در صورتی که این سلاح به سمت یک بیمارستان و یک پناهگاه حمله و آن را تخریب کند، مسئولیت انسانی و حقوقی این کشتار بر عهده چه کسی بود.
این‌ها سوالات پیچیده‌ای است که امروز انسان به خصوص در بکار بردن هوش مصنوعی روبه رو است.
برای پاسخ به سوالات فوق باید نگاهی به اساس و کاربرد بحث هوش مصنوعی و به خصوص پایه‌های آن داشت و ارتباط آن را با امور حقوقی و قانونگذاری دریافت.

*نگاهی به مفهوم هوش مصنوعی
در ابتدا باید به مفهوم تصمیم‌گیری خودکار نگاهی انداخت. منظور از تصمیم‌گیری خودکار، بخش بخش کردن یک تصمیم به مجموعه‌ای از معیارها است. تصمیم‌گیری به منزله الگوریتمی از قواعد است که از میان آلترناتیوهای از پیش تعیین شده دست به انتخاب می‌زند. بر این اساس یک ماشین هوش مصنوعی به صورت نظام مند بررسی می‌کند که آیا شرایط یک قاعده برقرار شده است یا خیر؟ اگر آن شرایط برقرار شده باشد، پس می‌توان نتیجه گرفت که آلترناتیو پیش‌بینی شده قابل به کارگیری است. نظام‌های تصمیم‌گیری خودکار درحال نزدیک شدن به فناوری‌هایی از زیرمجموعه‌های هوش مصنوعی و نظامهای اطلاعاتی هستند که کار تصمیم‌گیری را برای تصمیم گیران و خط مشی سازان تسهیل می‌کنند. در این نظامها استفاده از نیروی انسانی در فرایند اتخاذ نتیجه به حداقل رسیده و یا به طور کلی حذف می‌شود. اتخاذ تصمیم‌ها می‌تواند بهصورت تمام خودکار و بدون برقراری هرگونه تماسی ازسوی مقام‌های مسئول انجام گیرد؛ بدینصورت که شهروند می‌تواند فرایند تصمیم‌گیری را از طریق ابزارهای آغاز کند، سپس همه اطلاعات مرتبط با پرونده خود را در اختیار سیستم قرار دهد. در ادامه نتیجه‌گیری می‌شود و حاصل آن بدون هیچگونه دخالت عامل انسانی در فرایند حصول به تصمیم به شهروند منتقل شود.
دقت تصمیم‌گیری خودکار تاحدودی به میزان قابل اعتماد بودن شهروندان به هنگام ارائه اطلاعات مرتبط و متناسب با خودشان به نظام خودکار بستگی دارد و از این جنبه شبیه به اتخاذ تصمیم عامل انسانی است. اما تفاوت در این نکته نهفته است که خودکارسازی تصمیمها، بازیابی و تأیید اطلاعات را از میان پایگاههای دادهای تسهیل می‌کند که بخشهای مختلف دولت یک سیستم به صورت مشترک از آن استفاده می‌کنند.
به عنوان مثال چین بزرگترین سیستم اعتبار سنجی و دقیق‌ترین آن را به راه انداخته است. تمام اطلاعات درونی سیستم‌های دولتی از پرداخت‌های مالی و یا حتی روابط اجتماعی فرد در داخل الگوریتم‌ها جمع‌آوری شده و تبدیل به نمره‌ای برای گرفتن وام می‌شود.
نرم افزارهایی که در حال تحلیل اطلاعات و تصمیم‌گیری برای شهروندان هستند به تدریج درحال تکامل و پیچیده‌تر شدن هستند. همچنین تصمیمگیری خودکار را شهروندان رااغلب به صورت مستقیم انجام می‌دهند. شهروندان اطلاعات خود را به صورت برخط و بی‌نیاز به پر کردن فورم در اختیار این نرم افزارها قرار می‌دهند تا از نتایج آن استفاده کنند.
حالا سوال اینجاست که این الگوریتم‌ها که در قالب هوش مصنوعی جمع شده‌اند چه چالش‌هایی را در مقابل یک نظام حقوقی قرار می‌دهند و اصولاً این چالش‌ها چه طور قابل حل خواهند بود.

هوش مصنوعی راه قانونگریزی را می‌بندد
یکی از مهم‌ترین چالش‌هایی که هر سیستم و نظام اداری با آن روبه رو است نفوذ فساد به خصوص در عملکرد کارمندان است. یکی از مهم‌ترین مسائلی که در مورد اتوماسیون و جایگزینی رویه‌های رایانه‌ای به جای انسان‌های است، تقویت عمل به قانون و رعایت قواعد است. هیچ کس نمی‌تواند به یک برنامه رایانه‌ای بدون نفوذ سایبری ضربه وارد کند یا با استفاده از رشوه آن را وادار به دور زدن قانون کند.
مطالعات به خوبی نشان می‌دهد که انسان‌ها در زمان تصمیم‌گیری امکان تبعیت صددرصدی از قواعد قانونی وضع شده را به هنگام تصمیم‌گیری درباره افراد دیگر ندارند. این امر دلایل مختلفی می‌تواند داشته باشد از جمله این که افراد ممکن است آگاهی کاملی از قواعد مرتبط با آن مورد خاص تصمیم‌گیری نداشته باشند یا اینکه افراد درخصوص پیش نیازها و الزام‌های آن تصمیم‌گیری دچار سوءتفاهم شده باشند؛ افراد می‌توانند در فرهنگ‌هایی با محیط اداری گوناگونی باشند که در آن قواعد حقوقی فقط عاملی از میان عوامل متعدد هم ردیف باشند.
تصمیم‌گیری خودکار در مقایسه با آنچه که انسان‌ها انجام می‌دهند، می‌تواند اجرای منسجم‌تری از قواعد رسمی مورد تأیید نظام حاکمیتی را در پی داشته باشد. خودکارسازی فرایند تصمیم‌گیری مبتنی بر به کارگیری معیارهای عینی و حذف سوگیری‌ها بوده و قطعیت حقوقی در آن به صورت پیشفرض در قالب بروز رفتار و اتخاذ تصمیم‌های یکسان در مواجه با موارد مشابه را به طور کامل رعایتم یکند. همچنین خودکارسازی تصمیم‌ها با استفاده از هوش مصنوعی به ما این اطمینان را می‌دهد که در عین اینکه به تمام عوامل مرتبط در فرایند اتخاذ تصمیم توجه شده، هیچگونه ملاحظه غیرمرتبطی مثل پرداخت رشوه یا سفارش و توصیه از جانب مقامهای مسئول در فرایند تصمیم‌گیری دخالت داده نشده است. در اینجاست که می‌توان مدعی بود حرکت به سوی خودکارسازی تصمیم‌ها، گامی بزرگ به سوی تقویت حکومت قانون در کشور است.
اما این عقیده که تصمیم‌گیری خودکار رسیدن به نتایج عاری از خطا را تضمین می‌کند، جای شک و تردید دارد. مطالعات تجربی گذشته در مقیاس کوچک، اشتباه‌هایی را از میان تصمیمهایی که ماشینها گرفته‌اند شناسایی کرده است. اگرچه بیشتر مطالعات نشان می‌دهد که استفاده از رایانه به اتخاذ تصمیم‌هایی با حاشیه خطای کمتر منجر می‌شود. درکل به لحاظ حقوق اساسی این پیشفرض که رایانه همیشه راست میگویدگزاره بسیار خطرناکی است.
مورد نگران کننده‌تر این است که درنتیجه خودکارسازی تصمیمها دیگر نیازی به سازوکارهایی برای به چالش کشیدن تصمیم‌های دولت ازسوی شهروندان نیست، ایده‌ای که بی‌شک در نزد برخی از نظام‌ها می‌تواند جذاب باشد. یکی از عناصر مهم حکومت‌های قانونی این است که همیشه باید سازوکارها و فرایندهایی را در اختیار شهروندان قرار داد تا با آنها بتوانند بدون فوت وقت و صرف هزینه، مناقشات و اختلافات خود را با دولت رفع و رجوع کنند. بعضی مواقع زمینه به چالش کشیدن یک تصمیم تنها زمانی فراهم می‌شوند که منطق اتخاذ آن تصمیم را قانون‌گذار ارائه کنند.
از طرف یکی دیگر از چالش‌ها این است که ممکن است حملاتی از سوی هکرها متوجه سیستم‌های قانونگذاری و هوش مصنوعی شده باشد. امری که اتفاقاً امروز به خوبی خود را نشان می‌دهد. مشکلات حملات سایبری این است که در بسیاری از مواقع زمانی ناظران امنیتی متوجه روی دادن اتفاقی در داخل یک سیستم رایانه شده‌اند که ممکن است ماه‌ها از زمان نفوذ گذاشته باشد. حالا اگر در اثر تصمیم‌گیری استباه هوش مصنوعی صدمات غیر قابل جبرانی اتفاق افتاده باشد چگونه می‌توان آن را حل و فصل کرد.
این نکاتی است که هنوز پاسخ چندان صحیحی برای آن یافت نشده است. به نظر می‌رسد باید یکی سیتم نظارتی ۲۴ ساعته

مطالعه بیشتر بستن