نوع مقاله : مقاله پژوهشی
نویسندگان
1 دانشجوی دکتری مهندسی فناوری اطلاعات، گروه مهندسی کامپیوتر و فناوری اطلاعات ، دانشگاه قم، قم، ایران.
2 استادیار گروه مهندسی کامپیوتر و فناوری اطلاعات، دانشگاه قم، قم، ایران
چکیده
تازه های تحقیق
براساس تحلیل اسنادی و تحلیل محتوای کیفی، این پژوهش نشان داد که سوگیری الگوریتمی در آموزش، پدیدهای محدود به خطای فنی یا نقص در طراحی یک مدل خاص نیست، بلکه در چند سطح به عدالت آموزشی آسیب میزند. مضامین استخراجشده در بخش یافتهها – شامل بازتولید نابرابریهای ساختاری، تعارض میان دقت الگوریتمی و عدالت آموزشی، سوگیری اتوماسیون و تفکیک میان ضررهای تخصیصی و بازنمایی – در مجموع ترسیم میکنند که چگونه هوش مصنوعی میتواند نابرابریهای پیشین را در قالبی فناورانه بازتولید کند.
این یافتهها در پرتو چارچوبهای نظری عدالت، معنا و عمق بیشتری پیدا میکنند.
مقایسه این چارچوبها با شواهد مرور شده نشان میدهد که بسیاری از کاربردهای فعلی هوش مصنوعی – حتی زمانی که از نظر دقت کلی موفقاند – با این معیارهای عدالت همراستا نیستند، زیرا خطای بیشتری برای گروههای حاشیهای تولید میکنند یا دسترسی آنها به فرصتهای آموزشی را محدود میسازند. به بیان دیگر، «موفقیت فنی» الگوریتمها لزوماً به «عدالت آموزشی» منجر نمیشود و بدون وارد کردن شاخصهای عدالت توزیعی، ارزیابی صرفاً براساس دقت میتواند گمراهکننده باشد.
وجه دیگر نتایج، به سطح کنش انسانی و تفسیر الگوریتمها مربوط است. شواهد مربوط به سوگیری اتوماسیون نشان داد که معلمان، مدیران و سیاستگذاران در مواجهه با سامانههای هوش مصنوعی ممکن است تصمیمهای الگوریتمی را بهطور پیشفرض معتبرتر از قضاوت انسانی تلقی کنند و در عمل نقش انتقادی خود را به «تاییدکننده خروجی سیستم» تقلیل دهند. در کنار این، مطالعات اخیر درباره مدلهای زبانی بزرگ نشان میدهد که این مدلها، بر اثر آموزش بر دادههای عمدتاً غربی، گرایش به بازتولید کلیشههای جنسیتی و فرهنگی دارند و حضور زبانها و فرهنگهای غیرغربی را بهطور محدودتر بازنمایی میکنند. ترکیب این دو روند در زمینهای مانند ایران با تنوع زبانی و فرهنگی بالا میتواند هم در سطح تخصیص فرصتها مانند پیشنهاد دورهها، بورسیهها یا سطحبندی تحصیلی و هم در سطح بازنمایی نمادین مانند تصویری که دانشآموزان از خود و دیگران میسازند پیامدهای نابرابر ایجاد کند.
کلیدواژهها
عنوان مقاله [English]
نویسندگان [English]
With the expanding use of artificial intelligence—especially large language models (LLMs)—in education, a key question arises: how can these technologies strengthen or undermine educational equity? This study aims to elucidate the dimensions of algorithmic bias within educational systems and to derive social implications and policy responses appropriate to the Iranian context. The present research is qualitative, adopting a documentary–analytical approach. It employs a systematic content analysis of official reports, scholarly articles, and international case studies, guided by a conceptual checklist of educational equity. The study’s theoretical framework draws on John Rawls’s theory of justice as fairness and Amartya Sen’s capability approach. The findings indicate that bias operating at four levels—problem formulation, data, modelling, and interpretation/implementation—can reproduce educational inequalities and, in Iran’s diverse context marked by a digital divide, further intensify them. Accordingly, six policy directions are proposed: equity-oriented algorithm design; monitoring and ensuring data diversity; providing algorithmic ethics education for stakeholders; strengthening transparency and accountability; developing indigenous models; and reducing the digital divide. The article’s contribution lies in linking theories of justice with the literature on algorithmic bias and in advancing a locally grounded framework for educational equity policymaking in Iran in the age of artificial intelligence.
کلیدواژهها [English]