مطالعه بین رشته‌ای بیم‌ها و امیدها

خطر سوگیری هوش مصنوعی در حوزه حقوق

دکتر مرتضی بینا، پژوهشگر هوش مصنوعی/ دکتر مسعود حبیبی، پژوهشگر حقوق بین‌الملل
۴ شهریور ۱۴۰۲ - ۱۹:۰۹
خطر سوگیری هوش مصنوعی در حوزه حقوق

دکتر مرتضی بینا، پژوهشگر هوش مصنوعی/دکتر مسعود حبیبی، پژوهشگر حقوق بین‌الملل

در این مقاله بیم‌ها و امیدهای مربوط به سوگیری در سیستم‌های هوش مصنوعی در زمینه تصمیم‌گیری‌های حقوقی، و حصول اطمینان از رعایت اصل انصاف و اجتناب از سوگیری (۱)، مورد بحث قرار می‌گیرد. سرعت فزاینده هوش مصنوعی (AI)، حوزه علم حقوق را نیز در آستانه یک تحول اساسی قرار داده است. فن‌آوری‌ هوش مصنوعی نوید بخش ساده‌سازی فرآیندهای پیچیده قانونی، افزایش سطح کیفی تحقیقات حقوقی، و پیش‌بینی نتایج پرونده‌های حقوقی است. با این حال، ضمن تصدیق قدرت هوش مصنوعی در حوزه حقوقی، ضرورت دارد تا از خطر بالقوه سوگیری در بکارگیری این قدرت در حوزه حقوقی غافل نشویم. زیرا سوگیری در سیستم‌های هوش مصنوعی می‌تواند به نتایج نادرست، ناعادلانه، احتمال نقض برخی از اصول اساسی حقوق بشر از جمله اصل منع تبعیض، و تداوم نابرابری‌های اجتماعی منجر شود. در این مقاله نخست بیم‌ها و راه حل‌ها از نگاه یک پژوهشگر در حوزه حقوق بین‌الملل مطرح و سپس نکات مطرح شده توسط یک پژوهشگر در حوزه هوش مصنوعی بررسی و نقد می‌شوند. 

بخش اول بررسی از نگاه یک پژوهشگر حقوق بین‌الملل

درک سوگیری در هوش مصنوعی:

سوگیری در هوش مصنوعی زمانی پدیدار می‌شود که الگوریتم‌ها به دلیل آموزش‌های نادرست و نامتعارف، از منافع گروه خاصی بطور ناخواسته طرفداری کنند. اگر یک مدل هوش مصنوعی بر اساس آرای صادره در پرونده‌های حقوقی مختومه و یا رویه‌های قضایی مرتبط با یک گروه آماری خاص آموزش ببیند، ممکن است ناخواسته پیش‌بینی‌های جانبدارانه‌ای را نسبت به پرونده‌های حقوقی مشابه ارائه کند. سناریویی را در نظر بگیرید که در آن ابزار هوش مصنوعی به منظور پیش‌بینی درصد موفقیت یک شخص در دادگاه بر اساس نتایج آرای پرونده‌های قبلی طراحی شده باشد. اگر داده‌های آموزشی صرفاً از گروه آماری مرفهان جامعه جمع‌آوری شده باشد،  این احتمال وجود دارد که مدل هوش مصنوعی بر اساس داده‌هایی از میزان درآمد، قابلیت استفاده از خدمات حقوقی وکلای مجرب با دستمزد بالا و دیگر مولفه‌های مرتبط طراحی شود. در نتیجه، هوش مصنوعی ممکن است احتمال موفقیت کمتری را برای گروه آماری قشر فقیر جامعه پیش‌بینی کند. در سناریویی دیگر فرض کنید قضات دادگاه‌ها از این مدل هوش مصنوعی جهت پیش‌بینی نتیجه دعوای مطرح شده نزد خود، استفاده کنند. این خطر وجود دارد که، مدل هوش مصنوعی در مواجهه با یک پرونده کیفری جدید که متهم آن یک فرد فقیر جامعه است و شخص مزبور قادر به برخورداری از خدمات یک وکیل برجسته نیست، نتایج نادرست و نامطلوبی علیه متهم فقیر و نتایج مطلوب و خوش‌بینانه‌ای را له متهم مرفه پیش‌بینی کند. پیش‌بینی مزبور می‌تواند در تصمیم قاضی موثر باشد. این مهم نشان می‌دهد که چگونه داده‌های آموزشی جانبدارانه می‌تواند به پیش‌بینی‌های ناعادلانه و رواج نابرابری‌ها در سیستم‌های حقوقی تداوم بخشد.

مدیریت سوگیری در هوش مصنوعی از طریق شفافیت:

سنگ بنای مبارزه با سوگیری در حوزه هوش مصنوعی شفافیت است. متخصصان حقوقی باید درک روشن و کاملی از شیوه، الگوریتم و فرمول‌بندی توصیه‌های حقوقی هوش مصنوعی داشته باشند. حصول به شفافیت یاد شده در گروی قابلیت دسترسی آزاد به الگوریتم‌های تصمیم‌گیر سیستم‌های هوش مصنوعی و امکان تحلیل و تفسیر چنین الگورتیم‌هایی توسط حقوقدانان خبره است.

از هوش مصنوعی برای ارزیابی ریسک قراردادها هم می‌توان استفاده کرد. فرض کنید موسسه‌ای از ابزار هوش مصنوعی برای ارزیابی ریسک‌های احتمالی در قراردادهایش استفاده کند. متخصصان حقوقی باید به دلایل و منطق شناسایی ریسک‌های قراردادها توسط هوش مصنوعی پی ببرند. چنین شفافیتی می‌تواند ضمن پیشگیری، به شناسایی و برطرف کردن سوگیری و ارایه ارزیابی‌های منصفانه و قابل اعتماد منجر گردد.

طراحی هوش مصنوعی اخلاقی:

مراد از طراحی هوش مصنوعی اخلاقی، یعنی ایجاد شیوه‌ای که به موجب آن، ارزش‌های انسانی از جمله منع تبعیض، انصاف، رفاه اجتماعی، برابری اجتماعی و غیره در اولویت قرار گیرند. در واقع هدف از اخلاقی کردن هوش مصنوعی، تضمین اصول بنیادین حقوق بشر و کاهش سوگیری است. ضرورت دارد در این خصوص، حقوقدانان بر فرایندهای طراحی، آموزش و بروزرسانی سیستم‌های هوش مصنوعی نظارت فعالانه داشته باشند.

مقابله با سوگیری هوش مصنوعی در حوزه حقوق:

در این خصوص برخی از اقدامات پیشگیرانه مهم به شرح ذیل پیشنهاد می‌شود:

  • گزینش دقیق داده‌ها: انتخاب داده‌های آموزشی بایستی عاری از هرگونه سوگیری خاص باشد و طیف‌های مختلفی از اشخاص را شامل شود. برای مثال، فرض کنید قضات از یک مدل هوش مصنوعی به منظور تعیین میزان وثیقه برای متهمان در انتظار محاکمه، استفاده می‌کنند. داده‌های این مدل هوش مصنوعی باید مجموعه‌ای از عوامل از جمله، انواع جرم، جنسیت، سن، تابعیت، اهلیت، سوابق کیفری، درآمد و غیره را شامل شود. اگر داده عمدتاً از پرونده‌های افراد مرفه گزینش شده باشد، در نتیجه، هوش مصنوعی ممکن است ناخواسته مبالغ وثیقه بالاتری را برای متهمانی با سوابق کیفری مشابه توصیه کند. این موضوع می‌تواند منجر به نابرابری شود، زیرا قشر فقیر جامعه ممکن است با وجود شرایط مشابه با مقادیر بالاتر وثیقه روبه‌رو شوند. بنابراین انتخاب دقیق مجموعه از داده‌های کیفری مختلف از تمامی اقشار جامعه، می‌تواند به توصیه وثایق متناسب و منصفانه‌تری توسط سیستم هوش مصنوعی منجر شود.
  • شفافیت: طراحان هوش مصنوعی باید مبنای تصمیم‌گیری و پیش‌بینی‌های ارایه شده توسط مدل هوش مصنوعی را به طور واضح و آشکار برای متخصصان حقوقی تبیین و تشریح کند تا هرگونه سوگیری احتمالی شناسایی شود. فرض کنید موسسه‌ای حقوقی از ابزار هوش مصنوعی برای ارزیابی عادلانه یا مشروع بودن شرایط قراردادی استفاده می‌کند. اگر هوش مصنوعی نگرانی‌هایی را در مورد عادلانه یا مشروع بودن برخی شرایط قراردادی توصیه کند، متخصصان حقوقی باید به عواملی که منجر به این توصیه شده است، پی ببرند. متخصصان حقوقی از طریق درخواست شفافیت قادر خواهند بود تا عوامل مورد استفاده هوش مصنوعی را با عوامل مهمی از جمله رویه قضائی، قوانین، مقررات، عرف، اصول کلی حقوقی، دکترین و غیره تطبیق دهند. این مهم موجب جلوگیری از ارایه تفاسیر و توصیه‌های احتمالی نادرست و جانبدارانه توسط ابزار هوش مصنوعی می‌شود.
  • تدوین دستورالعمل‌های اخلاقی: تدوین مجموعه‌ای از اصول و قواعد اخلاقی در خصوص استفاده مسئولانه و منصفانه از هوش مصنوعی در حوزه‌های حقوقی (تحقیقات حقوقی، تحلیل حقوقی و غیره)، می‌تواند رعایت اصل انصاف و برابری سیستم‌های هوش مصنوعی را بهبود ببخشد. متابعت از دستورالعمل‌های یاد شده به اجتناب از سوگیری در فرایند ایجاد الگوریتم‌های هوش مصنوعی و تبعاً عدم اعمال تبعیض علیه گروه جمعیتی خاص می‌انجامد. فرض کنید که یک موسسه حقوقی غیرانتفاعی به افراد کم بضاعت خدمات حقوقی رایگان ارایه می‌دهد؛ ارائه چنین خدمتی ریشه در اصل تضمین دسترسی همگانی و بدون تبعیض به عدالت نهفته است. موسسه حقوقی یاد شده از طریق سیستم هوش مصنوعی شخص مورد نظر را جهت برخورداری از خدمات حقوقی رایگان ارزیابی می‌کند. اخلاقی کردن هوش مصنوعی به پر کردن شکاف بین طبقه غنی و فقیر جامعه منجر می‌شود. به‌عبارتی دیگر، به ایجاد یک سیستم حقوقی عادلانه و امکان دسترسی اقشار فقیر جامعه به خدمات حقوقی رایگان به مثابه اقشار غنی یاری می‌رساند.
  •  نظارت انسانی مستمر: بدین معنی که به‌رغم نقش ارزشمند سیستم‌های هوش مصنوعی در تصمیم‌گیری‌های حقوقی، اما وجود متخصصان حقوقی در رصد کردن فرایندهای تصمیم‌گیری این سیستم‌ها ضروری است. متخصصان حقوقی از طریق ارزیابی و تحلیل سیستم‌های هوش مصنوعی مطابق با ملاحظات انسانی و اخلاقی، هرگونه داده‌های جانبدارانه جدید را شناسایی و تمهیدات و اقدامات اصلاحی در خصوص حذف چنین داده‌هایی را توصیه می‌کنند. فرض کنید بین دو شرکت حوزه فناوری در خصوص مالکیت فکری دعوا مطرح شود. هر یک دیگری را به نقض حق اختراع خود محکوم می‌کند و برای اثبات ادعای خود، مجموعه‌ای ادله و مدارک ارایه می‌کند. موسسه حقوقی به وکالت از شاکی، از طریق سیستم هوش مصنوعی نسبت به بررسی ادله و مدارک ابرازی جهت احراز نقض حق اختراع اقدام می‌کند. هوش مصنوعی ممکن است برخی از ادله و مستندات را به عنوان کلید واژه نقض حق اختراع تلقی کند. اما وکلای خبره موسسه با بررسی ادله و مستندات فنی رد و بدل شده بین طرفین به این نتیجه می‌رسند که توصیه هوش مصنوعی اشتباه است. هرچند هوش مصنوعی در مرتب‌سازی، ساده‌سازی داده‌های اولیه و شناسایی شواهد بالقوه بهتر از نیروی انسانی عمل می‌کند. اما تفسیر داده‌های فنی و پیچیده عاری از خطا و اشتباه در پرتوی استفاده از یک متخصص حقوقی ناظر میسر می‌شود.

بخش دوم - بررسی و نقد موضوع از نگاه پژوهشگر هوش مصنوعی

در بخش اول این مقاله با دغدغه‌های یک حقوقدان در زمینه سوگیری هوش مصنوعی و راه حل‌ها و اقدامات پیشگیرانه آشنا شدید. در این بخش، موضوع از نظر فنی آنالیز می‌شود و مشکلات احتمالی در اجرایی کردن پیشنهادهای مطرح شده مورد بررسی قرار می‌گیرد.

همانطور که گفته شد، ریشه اصلی سوگیری هوش مصنوعی در حوزه حقوقی را می‌توان، در عدم ایجاد توازن و برابری نسبت به نحوه انتخاب داده‌های پرونده‌های حقوقی پیدا کرد. به‌عبارتی دیگر، ممکن است در فرایند گزینش داده‌ها، داده‌های پرونده‌های حقوقی یک جامعه آماری خاص نسبت به دیگر جوامع آماری، خواسته یا ناخواسته بیشتر مورد توجه و اقبال قرار گیرد. این موضوع به عنوان یک مشکل اساسی و مهم برای همه ابزار هوش مصنوعی که هم‌اکنون در بازار وجود دارند، محسوب می‌شود و رفع این عدم توازن و نابرابری نیز کار ساده‌ای نیست. قبل از ورود به بحث رفع  عدم توازن و نابرابری، لازم است چند مسئله مهم در زمینه آموزش ابزار هوش مصنوعی و نحوه تهیه داده‌های مورد نیاز توضیح داده شود.

امروزه ابزار هوش مصنوعی، بزرگ و دارای میلیاردها پارامتر هستند و روش آموزش آنها به طور زیادی به نیازها، هزینه‌ها و امکانات وابسته است. 

یکی از این روش‌ها، آموزش هوش مصنوعی خام در خصوص پرونده‌های حقوقی است. یعنی هوش مصنوعی که قبلا هیچ آموزشی ندیده و فقط از طریق داده‌های پرونده‌های حقوقی آموزش داده شود. با توجه به اینکه امروزه شاهد موفقیت فقط مدل‌های  هوش مصنوعی بزرگ با چندین میلیارد پارامتر هستیم، بنابراین ضرورت دارد که یک مدل هوش مصنوعی بزرگ را برای آموزش انتخاب کنیم. اجرای این روش مستلزم دسترسی به داده‌های میلیون‌ها پرونده‌های حقوقی متنوع متعلق به اقشار مختلف جامعه است. به‌علاوه، با فرض دسترسی به این تعداد پرونده، آموزش چنین هوش مصنوعی خامی به کامپیوترهای بسیار قوی، گران قیمت و زمان زیاد نیاز دارد. در حال حاضر و در عمل، این گزینه نمی‌تواند انتخاب درستی باشد.

روش دوم، اضافه کردن یک لایه تخصصی (۲) به یکی از ابزار هوش مصنوعی موجود مانند ChatGPT است که قبلا آموزش کلی دیده باشد. نظر به اینکه در این روش، لایه تخصصی می‌تواند دارای تعداد پارامترهای کمتری باشد، در نتیجه، قادر خواهد بود با تعداد کمتری پرونده برای مثال، حدود هزار پرونده آموزش کافی ببیند. مشکل چنین روشی، احتمال بالا رفتن میزان عدم توازن و نابرابری در انتخاب داده‌ها همزمان با کم شدن تعداد پرونده‌ها برای آموزش خواهد بود. بنابراین نظارت حقوقدانان در گزینش پرونده‌ها از جوامع آماری مختلف به منظور حفظ چنین توازن و برابری، امری الزامی خواهد بود. از طرفی اگر گزینش پرونده‌ها در یک حوزه خاص حقوقی برای مثال امر کیفری، ثبتی، خانواده، تجاری و یا غیره باشد، هوش مصنوعی قادر خواهد بود جواب‌های بهتر، دقیق‌تر و مطلوب‌تری را ارایه کند. اعمال این دو پیش شرط، یعنی انتخاب پرونده‌ها در یک زمینه خاص و حفظ توازن و برابری در انتخاب پرونده‌های حقوقی جوامع آماری گوناگون، مشکلاتی از جمله دسترسی به پرونده‌های یاد شده و هزینه‌های بالای اجرای آن را در پی خواهد داشت. با این وجود اجرای این روش عملی و قابل اجرا خواهد بود. همچنین در هر دو روش فوق، این امکان وجود دارد که جواب‌های هوش مصنوعی توسط حقوقدانان خبره بررسی و بازخورد انسانی آن برای افزایش سطح کیفی پاسخ‌ها و تقویت آموزش هوش مصنوعی (۳) به کار گرفته شوند. 

در روش سوم، از ابزار هوش مصنوعی موجود مانند ChatGPT استفاده می‌کنیم. در این روش علاوه بر داده‌های پرونده مورد نظر، داده‌های چند پرونده مشابه (۴) را نیز انتخاب و به ابزار هوش مصنوعی می‌دهیم. در چنین روشی از ابزار هوش مصنوعی می خواهیم با بررسی و ارزیابی داده‌های پرونده‌های مشابه موصوف، نسبت به پرونده مورد نظر اظهارنظر و پیش‌بینی کند. در این روش، ChatGPT و ابزار مشابه نشان داده‌اند که  قادر به تولید و ارایه جواب‌های قابل قبول و مطلوبی باشند.

یک نکته مهم در خصوص آموزش هوش مصنوعی در حوزه حقوقی، نحوه استخراج داده‌ها از پرونده‌های حقوقی برای تغذیه به هوش مصنوعی است. نظر به اینکه ساختار پرونده‌های حقوقی برای استخراج داده‌های مهم، به احتمال قوی یکسان و ساده نیست در نتیجه نیاز به خبرگان حقوقی در این خصوص ضروری خواهد بود. هرچند ابزارهای جدیدی وجود دارند که ممکن است با خواندن پرونده‌های حقوقی، ساختار مورد نظر را تا حدود زیادی ایجاد کنند. اما امروزه ایجاد داده‌ها با ساختار مناسب و دقیق به عنوان یک نیاز عمده است. بنابراین انتظار می‌رود روش ایجاد داده‌ها با ساختار مناسب از پرونده‌های حقوقی کم هزینه‌تر شود.

نتیجه:

در تحلیل نهایی، استفاده از هوش مصنوعی برای اقشار جامعه در حوزه حقوقی امتیازی قابل توجه تلقی می‌شود.

استفاده از هوش مصنوعی می‌تواند شمشیر دو دمی برای اجرای عدالت باشد. یعنی می‌تواند اصل برابری و عدم اعمال تبعیض را تحکیم یا تضعیف کند. قلب تپنده تحکیم عدالت، و پیشگیری از اعمال تبعیض در هوش مصنوعی، اتخاذ اقدامات پیشگیرانه توسط خبرگان حقوقی برای مقابله با رواج سوگیری است. روش‌های زیادی برای رفع نگرانی‌های حقوقی در خصوص سوگیری استفاده از هوش مصنوعی در حوزه حقوقی وجود دارد. شاید بهترین این روش‌ها در حال حاضر، روش دوم یعنی اضافه کردن لایه تخصصی باشد که قادر خواهد بود، جواب منصفانه و مطلوب‌تری نسبت به دیگر روش‌های یاد شده ارایه دهد. اما در مورد روش سوم، امروزه شاهد پیشرفت‌های روزافزون در قابلیت پردازش سوال‌های طولانی توسط ابزار هوش مصنوعی هستیم. این امکان وجود دارد که در آینده بتوانیم داده‌های ده‌ها و شاید صدها پرونده مشابه با پرونده موردنظر خود را به ابزار هوش مصنوعی دهیم و در خصوص نتیجه پرونده خود سوالاتی را مطرح کنیم. ممکن است استفاده از چنین روشی ما را به دریافت پاسخ‌های قابل قبول و مطلوب‌تر و با سوگیری کمتری هدایت کند. در اینصورت باید روش‌هایی را برای دسته‌بندی پرونده‌های مشابه ایجاد و به همراه داده‌های پرونده مورد نظر به هوش مصنوعی عرضه شود. در پایان اینکه، شاید حضور خبرگان حقوقی در کنار خبرگان هوش مصنوعی برای تعیین تشابه پرونده‌های موجود با پرونده مورد نظر، نحوه گزینش و آنالیز داده‌های حقوقی، به منظور اجتناب احتمالی از سوگیری هوش مصنوعی در حوزه حقوق امری الزامی باشد.

با توجه به سرعت فزاینده پیشرفت ابزار هوش مصنوعی باید منتظر تحولات عمیقی باشیم و شاید در دو سال آینده بسیاری از مسائل مطرح شده با روش‌های جدیدتری حل و ساده شوند.

در مقاله‌های آینده، دیگر ابعاد و جوانب مربوط به استفاده از هوش مصنوعی در حوزه‌های مختلف حقوقی مورد بررسی قرار خواهد گرفت.

۱- Bias

۲- Fine Tuning

۳- Reinforcement Learning with Human Feedback
4- Prompt Engineering اصطلاح مورد استفاده در انگلیسی  

تبادل نظر

شما در حال پاسخ به نظر «» هستید.
captcha