در این مقاله بیمها و امیدهای مربوط به سوگیری در سیستمهای هوش مصنوعی در زمینه تصمیمگیریهای حقوقی، و حصول اطمینان از رعایت اصل انصاف و اجتناب از سوگیری (۱)، مورد بحث قرار میگیرد. سرعت فزاینده هوش مصنوعی (AI)، حوزه علم حقوق را نیز در آستانه یک تحول اساسی قرار داده است. فنآوری هوش مصنوعی نوید بخش سادهسازی فرآیندهای پیچیده قانونی، افزایش سطح کیفی تحقیقات حقوقی، و پیشبینی نتایج پروندههای حقوقی است. با این حال، ضمن تصدیق قدرت هوش مصنوعی در حوزه حقوقی، ضرورت دارد تا از خطر بالقوه سوگیری در بکارگیری این قدرت در حوزه حقوقی غافل نشویم. زیرا سوگیری در سیستمهای هوش مصنوعی میتواند به نتایج نادرست، ناعادلانه، احتمال نقض برخی از اصول اساسی حقوق بشر از جمله اصل منع تبعیض، و تداوم نابرابریهای اجتماعی منجر شود. در این مقاله نخست بیمها و راه حلها از نگاه یک پژوهشگر در حوزه حقوق بینالملل مطرح و سپس نکات مطرح شده توسط یک پژوهشگر در حوزه هوش مصنوعی بررسی و نقد میشوند.
بخش اول – بررسی از نگاه یک پژوهشگر حقوق بینالملل
درک سوگیری در هوش مصنوعی:
سوگیری در هوش مصنوعی زمانی پدیدار میشود که الگوریتمها به دلیل آموزشهای نادرست و نامتعارف، از منافع گروه خاصی بطور ناخواسته طرفداری کنند. اگر یک مدل هوش مصنوعی بر اساس آرای صادره در پروندههای حقوقی مختومه و یا رویههای قضایی مرتبط با یک گروه آماری خاص آموزش ببیند، ممکن است ناخواسته پیشبینیهای جانبدارانهای را نسبت به پروندههای حقوقی مشابه ارائه کند. سناریویی را در نظر بگیرید که در آن ابزار هوش مصنوعی به منظور پیشبینی درصد موفقیت یک شخص در دادگاه بر اساس نتایج آرای پروندههای قبلی طراحی شده باشد. اگر دادههای آموزشی صرفاً از گروه آماری مرفهان جامعه جمعآوری شده باشد، این احتمال وجود دارد که مدل هوش مصنوعی بر اساس دادههایی از میزان درآمد، قابلیت استفاده از خدمات حقوقی وکلای مجرب با دستمزد بالا و دیگر مولفههای مرتبط طراحی شود. در نتیجه، هوش مصنوعی ممکن است احتمال موفقیت کمتری را برای گروه آماری قشر فقیر جامعه پیشبینی کند. در سناریویی دیگر فرض کنید قضات دادگاهها از این مدل هوش مصنوعی جهت پیشبینی نتیجه دعوای مطرح شده نزد خود، استفاده کنند. این خطر وجود دارد که، مدل هوش مصنوعی در مواجهه با یک پرونده کیفری جدید که متهم آن یک فرد فقیر جامعه است و شخص مزبور قادر به برخورداری از خدمات یک وکیل برجسته نیست، نتایج نادرست و نامطلوبی علیه متهم فقیر و نتایج مطلوب و خوشبینانهای را له متهم مرفه پیشبینی کند. پیشبینی مزبور میتواند در تصمیم قاضی موثر باشد. این مهم نشان میدهد که چگونه دادههای آموزشی جانبدارانه میتواند به پیشبینیهای ناعادلانه و رواج نابرابریها در سیستمهای حقوقی تداوم بخشد.
مدیریت سوگیری در هوش مصنوعی از طریق شفافیت:
سنگ بنای مبارزه با سوگیری در حوزه هوش مصنوعی شفافیت است. متخصصان حقوقی باید درک روشن و کاملی از شیوه، الگوریتم و فرمولبندی توصیههای حقوقی هوش مصنوعی داشته باشند. حصول به شفافیت یاد شده در گروی قابلیت دسترسی آزاد به الگوریتمهای تصمیمگیر سیستمهای هوش مصنوعی و امکان تحلیل و تفسیر چنین الگورتیمهایی توسط حقوقدانان خبره است.
از هوش مصنوعی برای ارزیابی ریسک قراردادها هم میتوان استفاده کرد. فرض کنید موسسهای از ابزار هوش مصنوعی برای ارزیابی ریسکهای احتمالی در قراردادهایش استفاده کند. متخصصان حقوقی باید به دلایل و منطق شناسایی ریسکهای قراردادها توسط هوش مصنوعی پی ببرند. چنین شفافیتی میتواند ضمن پیشگیری، به شناسایی و برطرف کردن سوگیری و ارایه ارزیابیهای منصفانه و قابل اعتماد منجر گردد.
طراحی هوش مصنوعی اخلاقی:
مراد از طراحی هوش مصنوعی اخلاقی، یعنی ایجاد شیوهای که به موجب آن، ارزشهای انسانی از جمله منع تبعیض، انصاف، رفاه اجتماعی، برابری اجتماعی و غیره در اولویت قرار گیرند. در واقع هدف از اخلاقی کردن هوش مصنوعی، تضمین اصول بنیادین حقوق بشر و کاهش سوگیری است. ضرورت دارد در این خصوص، حقوقدانان بر فرایندهای طراحی، آموزش و بروزرسانی سیستمهای هوش مصنوعی نظارت فعالانه داشته باشند.
مقابله با سوگیری هوش مصنوعی در حوزه حقوق:
در این خصوص برخی از اقدامات پیشگیرانه مهم به شرح ذیل پیشنهاد میشود:
- گزینش دقیق دادهها: انتخاب دادههای آموزشی بایستی عاری از هرگونه سوگیری خاص باشد و طیفهای مختلفی از اشخاص را شامل شود. برای مثال، فرض کنید قضات از یک مدل هوش مصنوعی به منظور تعیین میزان وثیقه برای متهمان در انتظار محاکمه، استفاده میکنند. دادههای این مدل هوش مصنوعی باید مجموعهای از عوامل از جمله، انواع جرم، جنسیت، سن، تابعیت، اهلیت، سوابق کیفری، درآمد و غیره را شامل شود. اگر داده عمدتاً از پروندههای افراد مرفه گزینش شده باشد، در نتیجه، هوش مصنوعی ممکن است ناخواسته مبالغ وثیقه بالاتری را برای متهمانی با سوابق کیفری مشابه توصیه کند. این موضوع میتواند منجر به نابرابری شود، زیرا قشر فقیر جامعه ممکن است با وجود شرایط مشابه با مقادیر بالاتر وثیقه روبهرو شوند. بنابراین انتخاب دقیق مجموعه از دادههای کیفری مختلف از تمامی اقشار جامعه، میتواند به توصیه وثایق متناسب و منصفانهتری توسط سیستم هوش مصنوعی منجر شود.
- شفافیت: طراحان هوش مصنوعی باید مبنای تصمیمگیری و پیشبینیهای ارایه شده توسط مدل هوش مصنوعی را به طور واضح و آشکار برای متخصصان حقوقی تبیین و تشریح کند تا هرگونه سوگیری احتمالی شناسایی شود. فرض کنید موسسهای حقوقی از ابزار هوش مصنوعی برای ارزیابی عادلانه یا مشروع بودن شرایط قراردادی استفاده میکند. اگر هوش مصنوعی نگرانیهایی را در مورد عادلانه یا مشروع بودن برخی شرایط قراردادی توصیه کند، متخصصان حقوقی باید به عواملی که منجر به این توصیه شده است، پی ببرند. متخصصان حقوقی از طریق درخواست شفافیت قادر خواهند بود تا عوامل مورد استفاده هوش مصنوعی را با عوامل مهمی از جمله رویه قضائی، قوانین، مقررات، عرف، اصول کلی حقوقی، دکترین و غیره تطبیق دهند. این مهم موجب جلوگیری از ارایه تفاسیر و توصیههای احتمالی نادرست و جانبدارانه توسط ابزار هوش مصنوعی میشود.
- تدوین دستورالعملهای اخلاقی: تدوین مجموعهای از اصول و قواعد اخلاقی در خصوص استفاده مسئولانه و منصفانه از هوش مصنوعی در حوزههای حقوقی (تحقیقات حقوقی، تحلیل حقوقی و غیره)، میتواند رعایت اصل انصاف و برابری سیستمهای هوش مصنوعی را بهبود ببخشد. متابعت از دستورالعملهای یاد شده به اجتناب از سوگیری در فرایند ایجاد الگوریتمهای هوش مصنوعی و تبعاً عدم اعمال تبعیض علیه گروه جمعیتی خاص میانجامد. فرض کنید که یک موسسه حقوقی غیرانتفاعی به افراد کم بضاعت خدمات حقوقی رایگان ارایه میدهد؛ ارائه چنین خدمتی ریشه در اصل تضمین دسترسی همگانی و بدون تبعیض به عدالت نهفته است. موسسه حقوقی یاد شده از طریق سیستم هوش مصنوعی شخص مورد نظر را جهت برخورداری از خدمات حقوقی رایگان ارزیابی میکند. اخلاقی کردن هوش مصنوعی به پر کردن شکاف بین طبقه غنی و فقیر جامعه منجر میشود. بهعبارتی دیگر، به ایجاد یک سیستم حقوقی عادلانه و امکان دسترسی اقشار فقیر جامعه به خدمات حقوقی رایگان به مثابه اقشار غنی یاری میرساند.
- نظارت انسانی مستمر: بدین معنی که بهرغم نقش ارزشمند سیستمهای هوش مصنوعی در تصمیمگیریهای حقوقی، اما وجود متخصصان حقوقی در رصد کردن فرایندهای تصمیمگیری این سیستمها ضروری است. متخصصان حقوقی از طریق ارزیابی و تحلیل سیستمهای هوش مصنوعی مطابق با ملاحظات انسانی و اخلاقی، هرگونه دادههای جانبدارانه جدید را شناسایی و تمهیدات و اقدامات اصلاحی در خصوص حذف چنین دادههایی را توصیه میکنند. فرض کنید بین دو شرکت حوزه فناوری در خصوص مالکیت فکری دعوا مطرح شود. هر یک دیگری را به نقض حق اختراع خود محکوم میکند و برای اثبات ادعای خود، مجموعهای ادله و مدارک ارایه میکند. موسسه حقوقی به وکالت از شاکی، از طریق سیستم هوش مصنوعی نسبت به بررسی ادله و مدارک ابرازی جهت احراز نقض حق اختراع اقدام میکند. هوش مصنوعی ممکن است برخی از ادله و مستندات را به عنوان کلید واژه نقض حق اختراع تلقی کند. اما وکلای خبره موسسه با بررسی ادله و مستندات فنی رد و بدل شده بین طرفین به این نتیجه میرسند که توصیه هوش مصنوعی اشتباه است. هرچند هوش مصنوعی در مرتبسازی، سادهسازی دادههای اولیه و شناسایی شواهد بالقوه بهتر از نیروی انسانی عمل میکند. اما تفسیر دادههای فنی و پیچیده عاری از خطا و اشتباه در پرتوی استفاده از یک متخصص حقوقی ناظر میسر میشود.
بخش دوم - بررسی و نقد موضوع از نگاه پژوهشگر هوش مصنوعی
در بخش اول این مقاله با دغدغههای یک حقوقدان در زمینه سوگیری هوش مصنوعی و راه حلها و اقدامات پیشگیرانه آشنا شدید. در این بخش، موضوع از نظر فنی آنالیز میشود و مشکلات احتمالی در اجرایی کردن پیشنهادهای مطرح شده مورد بررسی قرار میگیرد.
همانطور که گفته شد، ریشه اصلی سوگیری هوش مصنوعی در حوزه حقوقی را میتوان، در عدم ایجاد توازن و برابری نسبت به نحوه انتخاب دادههای پروندههای حقوقی پیدا کرد. بهعبارتی دیگر، ممکن است در فرایند گزینش دادهها، دادههای پروندههای حقوقی یک جامعه آماری خاص نسبت به دیگر جوامع آماری، خواسته یا ناخواسته بیشتر مورد توجه و اقبال قرار گیرد. این موضوع به عنوان یک مشکل اساسی و مهم برای همه ابزار هوش مصنوعی که هماکنون در بازار وجود دارند، محسوب میشود و رفع این عدم توازن و نابرابری نیز کار سادهای نیست. قبل از ورود به بحث رفع عدم توازن و نابرابری، لازم است چند مسئله مهم در زمینه آموزش ابزار هوش مصنوعی و نحوه تهیه دادههای مورد نیاز توضیح داده شود.
امروزه ابزار هوش مصنوعی، بزرگ و دارای میلیاردها پارامتر هستند و روش آموزش آنها به طور زیادی به نیازها، هزینهها و امکانات وابسته است.
یکی از این روشها، آموزش هوش مصنوعی خام در خصوص پروندههای حقوقی است. یعنی هوش مصنوعی که قبلا هیچ آموزشی ندیده و فقط از طریق دادههای پروندههای حقوقی آموزش داده شود. با توجه به اینکه امروزه شاهد موفقیت فقط مدلهای هوش مصنوعی بزرگ با چندین میلیارد پارامتر هستیم، بنابراین ضرورت دارد که یک مدل هوش مصنوعی بزرگ را برای آموزش انتخاب کنیم. اجرای این روش مستلزم دسترسی به دادههای میلیونها پروندههای حقوقی متنوع متعلق به اقشار مختلف جامعه است. بهعلاوه، با فرض دسترسی به این تعداد پرونده، آموزش چنین هوش مصنوعی خامی به کامپیوترهای بسیار قوی، گران قیمت و زمان زیاد نیاز دارد. در حال حاضر و در عمل، این گزینه نمیتواند انتخاب درستی باشد.
روش دوم، اضافه کردن یک لایه تخصصی (۲) به یکی از ابزار هوش مصنوعی موجود مانند ChatGPT است که قبلا آموزش کلی دیده باشد. نظر به اینکه در این روش، لایه تخصصی میتواند دارای تعداد پارامترهای کمتری باشد، در نتیجه، قادر خواهد بود با تعداد کمتری پرونده برای مثال، حدود هزار پرونده آموزش کافی ببیند. مشکل چنین روشی، احتمال بالا رفتن میزان عدم توازن و نابرابری در انتخاب دادهها همزمان با کم شدن تعداد پروندهها برای آموزش خواهد بود. بنابراین نظارت حقوقدانان در گزینش پروندهها از جوامع آماری مختلف به منظور حفظ چنین توازن و برابری، امری الزامی خواهد بود. از طرفی اگر گزینش پروندهها در یک حوزه خاص حقوقی برای مثال امر کیفری، ثبتی، خانواده، تجاری و یا غیره باشد، هوش مصنوعی قادر خواهد بود جوابهای بهتر، دقیقتر و مطلوبتری را ارایه کند. اعمال این دو پیش شرط، یعنی انتخاب پروندهها در یک زمینه خاص و حفظ توازن و برابری در انتخاب پروندههای حقوقی جوامع آماری گوناگون، مشکلاتی از جمله دسترسی به پروندههای یاد شده و هزینههای بالای اجرای آن را در پی خواهد داشت. با این وجود اجرای این روش عملی و قابل اجرا خواهد بود. همچنین در هر دو روش فوق، این امکان وجود دارد که جوابهای هوش مصنوعی توسط حقوقدانان خبره بررسی و بازخورد انسانی آن برای افزایش سطح کیفی پاسخها و تقویت آموزش هوش مصنوعی (۳) به کار گرفته شوند.
در روش سوم، از ابزار هوش مصنوعی موجود مانند ChatGPT استفاده میکنیم. در این روش علاوه بر دادههای پرونده مورد نظر، دادههای چند پرونده مشابه (۴) را نیز انتخاب و به ابزار هوش مصنوعی میدهیم. در چنین روشی از ابزار هوش مصنوعی می خواهیم با بررسی و ارزیابی دادههای پروندههای مشابه موصوف، نسبت به پرونده مورد نظر اظهارنظر و پیشبینی کند. در این روش، ChatGPT و ابزار مشابه نشان دادهاند که قادر به تولید و ارایه جوابهای قابل قبول و مطلوبی باشند.
یک نکته مهم در خصوص آموزش هوش مصنوعی در حوزه حقوقی، نحوه استخراج دادهها از پروندههای حقوقی برای تغذیه به هوش مصنوعی است. نظر به اینکه ساختار پروندههای حقوقی برای استخراج دادههای مهم، به احتمال قوی یکسان و ساده نیست در نتیجه نیاز به خبرگان حقوقی در این خصوص ضروری خواهد بود. هرچند ابزارهای جدیدی وجود دارند که ممکن است با خواندن پروندههای حقوقی، ساختار مورد نظر را تا حدود زیادی ایجاد کنند. اما امروزه ایجاد دادهها با ساختار مناسب و دقیق به عنوان یک نیاز عمده است. بنابراین انتظار میرود روش ایجاد دادهها با ساختار مناسب از پروندههای حقوقی کم هزینهتر شود.
نتیجه:
در تحلیل نهایی، استفاده از هوش مصنوعی برای اقشار جامعه در حوزه حقوقی امتیازی قابل توجه تلقی میشود.
استفاده از هوش مصنوعی میتواند شمشیر دو دمی برای اجرای عدالت باشد. یعنی میتواند اصل برابری و عدم اعمال تبعیض را تحکیم یا تضعیف کند. قلب تپنده تحکیم عدالت، و پیشگیری از اعمال تبعیض در هوش مصنوعی، اتخاذ اقدامات پیشگیرانه توسط خبرگان حقوقی برای مقابله با رواج سوگیری است. روشهای زیادی برای رفع نگرانیهای حقوقی در خصوص سوگیری استفاده از هوش مصنوعی در حوزه حقوقی وجود دارد. شاید بهترین این روشها در حال حاضر، روش دوم یعنی اضافه کردن لایه تخصصی باشد که قادر خواهد بود، جواب منصفانه و مطلوبتری نسبت به دیگر روشهای یاد شده ارایه دهد. اما در مورد روش سوم، امروزه شاهد پیشرفتهای روزافزون در قابلیت پردازش سوالهای طولانی توسط ابزار هوش مصنوعی هستیم. این امکان وجود دارد که در آینده بتوانیم دادههای دهها و شاید صدها پرونده مشابه با پرونده موردنظر خود را به ابزار هوش مصنوعی دهیم و در خصوص نتیجه پرونده خود سوالاتی را مطرح کنیم. ممکن است استفاده از چنین روشی ما را به دریافت پاسخهای قابل قبول و مطلوبتر و با سوگیری کمتری هدایت کند. در اینصورت باید روشهایی را برای دستهبندی پروندههای مشابه ایجاد و به همراه دادههای پرونده مورد نظر به هوش مصنوعی عرضه شود. در پایان اینکه، شاید حضور خبرگان حقوقی در کنار خبرگان هوش مصنوعی برای تعیین تشابه پروندههای موجود با پرونده مورد نظر، نحوه گزینش و آنالیز دادههای حقوقی، به منظور اجتناب احتمالی از سوگیری هوش مصنوعی در حوزه حقوق امری الزامی باشد.
با توجه به سرعت فزاینده پیشرفت ابزار هوش مصنوعی باید منتظر تحولات عمیقی باشیم و شاید در دو سال آینده بسیاری از مسائل مطرح شده با روشهای جدیدتری حل و ساده شوند.
در مقالههای آینده، دیگر ابعاد و جوانب مربوط به استفاده از هوش مصنوعی در حوزههای مختلف حقوقی مورد بررسی قرار خواهد گرفت.
۱- Bias
۲- Fine Tuning