"والگورزم ایک خاص نیت کے ساتھ ان کے لئے ڈیزائن یا کمیشن حاصل کرنے والے انسانوں کے طور پر کے طور پر متعصب ہیں. ہمیں چاہیے اس وجہ سے سماجی اثر کے ساتھ سافٹ ویئر کے نظام کے مقاصد کے بارے میں ایک کھلی بحث کو چنگاری "- رالف میولر-Eiselt
متعصب الگورتھم ہر جگہ ہیں, مشین لرننگ اور عی کے ارتقاء میں ایک نازک لمحے میں اتنی, اسی وجہ سے ہم معاشرتی مسائل اس متصور کے بارے میں بات نہیں کر رہے ہیں?
اس کتاب میں, کس طرح بگ ڈیٹا عدم مساوات میں اضافہ اور جمہوریت دھمکی - ریاضی تباہی کے ہتھیار, کیتی اونیل کہ "بڑے اعداد و شمار کے عمل کو ماضی codify" لیکن وہ نہیں کرتے بتاتے "مستقبل ایجاد." ہم مشینیں ہماری انسانی اداروں کو متاثر کرنے کے بارے میں کیسا محسوس کرتے ہیں? جو زندگی کے معیار کی حفاظت کرتا ہے الگورتھم انچارج ہیں جب? اونیل کی دلیل ہے کہ انسانی رابطے کرنے کے لئے ضروری ہے "ہمارے الگورتھم میں بہتر اقدار سرایت کریں."
رالف میولر-Eiselt تعلیمی پالیسی اور گورننس میں ایک ماہر ہے اور ایک digitalized دنیا میں پالیسی چیلنجوں اور مواقع پر Bertelsmann فاؤنڈیشن کی ٹاسک فورس کے سربراہ. ان کی تازہ ترین "یلگوردمز کی اخلاقیات" منصوبے میں (وہ کے شریک مصنف ہے ڈیجیٹل تعلیم انقلاب; انگریزی عنوان – تعلیم کے ڈیجیٹل انقلاب), وہ معاشرے اور تعلیم میں پر algorithmic فیصلہ سازی اور مصنوعی ذہانت کے نتائج میں ایک قریبی نظر لیتا ہے. انہوں نے کہا کہ کے ساتھ گفتگو تعلیم کے لئے گلوبل تلاش AI کے بارے میں بات کرنے کے, الگورتھم اور جو ہم سب کے بارے میں سوچ کیا جانا چاہئے.
“یا اسے کمزور کرنے کے لئے - اس تعلیم میں AI سماجی سماتا کو مضبوط بنانے کے لئے ایک اتپریرک ہو جائے گا کہ آیا اس بات کا تعین کرنے کے لئے ہم پر منحصر ہے.” — رالف میولر-Eiselt
رالف, ہم کو یقینی بنانے کے کس طرح الگورتھم ہمیشہ معاشروں اور تعلیم کے لئے ایک مثبت اثر حاصل کرنے کے لئے حاملہ ہوئی کہ, بلکہ ایک خطرے یا ایک خطرے کے مقابلے?
والگورزم ایک خاص نیت کے ساتھ ان کے لئے ڈیزائن یا کمیشن حاصل کرنے والے انسانوں کے طور پر کے طور پر متعصب ہیں. لہذا ہم سماجی اثرات کے ساتھ سافٹ ویئر کے نظام کے مقاصد کے بارے میں ایک کھلی بحث کو چنگاری چاہئے. یہ فیصلہ کرنے کے لئے اس طرح کے نظام استعمال کیا جاتا ہے اور اس بات کا یقین ہے کہ وہ ذہن میں صحیح مقاصد کے ساتھ تیار کیا گیا ہے بنانے کے لئے کیا جانا چاہئے، جہاں ایک معاشرے کے طور پر ہم پر منحصر ہے. دوم, ہم نیک نیتی کے ساتھ ڈیزائن کیا گیا یہاں تک کہ الگورتھم برے نتائج پیدا کر سکتے ہیں یاد رکھیں کہ ضروری ہے. معاشرے میں انفرادی شرکت پر وسیع تر ان کے ممکنہ اثرات ہیں, زیادہ اہم ایک احتیاطی خطرے کی تشخیص ہے اور - ایک بار خود کار فیصلہ سازی کے استعمال میں ہے - ارادہ نتائج کی تصدیق کرنے کے لئے ایک جامع تشخیص. اس عمل میں غیر جانبدار تیسری پارٹیوں کو شامل کو نمایاں طور پر سافٹ ویئر کی بنیاد پر فیصلہ سازی میں اعتماد کی تعمیر کرنے میں مدد کر سکتے ہیں.
ہم اندازہ لگانے کیسے وہ ارادہ ہے اس کے نزدیک جاتے ہیں یا نہیں?
یہ تخمینہ لگانے الگورتھم کی بنیاد پر ایپلی کیشنز اور فورم کے اوزار کے لئے آتا ہے جب شفاف احتساب کی کلید ہے. یہ ہم الگورتھم عوامی رسائی کے کوڈ بنانے کی ضرورت ہے کہ مطلب یہ نہیں ہے. اصل میں, کہ سب سے زیادہ متاثر ہونے والے افراد کے الگورتھم باخبر فیصلے کیے جا رہے ہیں کہ کس طرح کی تفہیم حاصل کرنے کے لئے نہیں بالکل مددگار ثابت ہو گی. اس کے بجائے, ہم غیر جانبدار ماہرین کے ذریعے ایک اندازہ کی طرف سے تصدیق کی جا سکتی ہے کہ الگورتھم کے لئے مقصد کے خود وضاحتی بیانات متعلقہ معلومات اور ڈیٹا تک رسائی دی جاتی ہیں جو جیسے میکانزم کی ضرورت. یہ اندازہ چاہے الگورتھم اصل مطلوبہ مقاصد کی خدمت کر رہے ہیں کی جانچ پڑتال کرنے کے لئے اور ان کی حقیقی زندگی کے خطرات اور مواقع کو ظاہر کرنے کے لئے کے طور پر holistically کا ممکن طور پر ڈیزائن کیا جانا چاہئے.
"قابلیت پر مبنی نصابی انتخاب اور ملازمت اختیارات پر الگورتھم باخبر مشورے کے لیے وسیع مواقع موجود ہیں جبکہ, ہم کمزور کسٹمرز کو ھدف کے خطرات سے پہلے اپنی آنکھیں بند نہیں کرسکتے ہیں, معیاری امتیاز اور بڑے پیمانے پر لیبر مارکیٹ کو علیحدہ "- رالف میولر-Eiselt
تم کس طرح تیار کرنے کی تعلیم کے نظام کو یلگوردمز اور AI ڑلنے دیکھتے ہیں?
ڈیجیٹل دور کی تعلیم کے لئے صلاحیت شامل کر اقدار کی ایک بڑی تعداد فراہم کرتا ہے. ان میں سے کئی مربوط ڈیٹا کے استعمال پر موروثی منحصر ہیں - یہ سیکھنے ذاتی کے جا, gamification ذریعے ترغیب رکاوٹوں پر قابو پانے, مواقع کے جنگل میں واقفیت فراہم کرنے, یا کم از کم نہیں, لیبر مارکیٹ کے مطالبات کے ساتھ انفرادی مہارت کے ملاپ. تعلیم کے شعبے میں یلگوردمز اور AI کے استعمال اس کے ابتدائی مرحلے میں اب بھی ہے, مقدمے کی سماعت اور خرابی کی ایک بہت کے ساتھ منایا جائے. لیکن ٹیکنالوجی اور کافی یقینی طور پر مستقبل قریب میں ان تمام مسائل کو تیار کرنے میں مدد کرے گا کر سکتے ہیں. اس کافی پیمانے پر تعلیم پر اثرانداز ہو سکتا ہے کے بعد سے, پالیسی سازوں بہتر ہو اور اس کے بعد رد عمل کا اظہار کرنے کے لئے ان چیزوں کا انتظار نہیں کرنا چاہئے, لیکن فعال طور پر عوامی اچھے کو برقرار رکھنے کی سمت میں اب ریگولیشن کی صورت گری. اس تعلیم میں AI سماجی سماتا کو مضبوط بنانے کے لئے ایک اتپریرک ہو جائے گا کہ آیا اس بات کا تعین کرنے کے لئے ہم پر منحصر ہے - یا یہ کمزور کے لئے.
ہم ہر کلاس روم اور بچے کی ضروریات کو اپنانے کے لئے AI ذاتی نوعیت کس طرح کر سکتے ہیں?
بہتر انفرادی صلاحیتوں کو تیار کرنے کے لئے سیکھنے کے ذاتی کے ڈیجیٹل سیکھنے کے اہم مواقع میں سے ایک ہے. الگورتھم کی بنیاد پر ایپلی کیشنز اور AI مشخص تعلیم لاگت سے متعلقہ وجوہات کی بنا پر اس سے قبل لوگوں کی ایک محدود تعداد کے لئے صرف دستیاب تھا کہ تک رسائی democratize سکتے ہیں. لیکن تعلیم میں AI کا وعدہ اور خطرہ کے درمیان ٹھیک لائن ہے. اہلیت پر مبنی نصابی انتخاب اور ملازمت اختیارات پر الگورتھم باخبر مشورے کے لیے وسیع مواقع موجود ہیں جبکہ, ہم کمزور کسٹمرز کو ھدف کے خطرات سے پہلے اپنی آنکھیں بند نہیں کرسکتے ہیں, معیاری امتیاز اور بڑے پیمانے پر لیبر مارکیٹ کو علیحدہ.
AI انسانوں کی طرف سے بنایا گیا ہے کے بعد سے, یلگوردمز اور AI درست طریقے سے انسانی غلطی کی وجہ سے ایک تعلیمی ماحول میں کام نہیں کرے گا کہ خطرہ ہے? AI اثر سیکھنے کے تجربے میں کس طرح کرے گا غلطیوں?
والگورزم صرف ان کے لئے ڈیزائن ہے جو انسانوں کے طور پر اچھے ہیں. انسانی غلطی بہت سے مراحل پر ایک الگورتھم میں ترجمہ کر سکتے ہیں: جمع کرنے اور الگورتھم پروگرامنگ پر ڈیٹا کے انتخاب کی طرف سے اس کی پیداوار کی ترجمانی کرنے. مثال کے طور پر, ایک الگورتھم تاریخی اعداد و شمار کا استعمال کرتا ہے تو, وجہ ماضی کے امتیازی پیٹرن کو ایک مخصوص سمت میں متعصب ہے جس, الگورتھم ان نمونوں سے سیکھیں گے اور یہ پیمانے پر استعمال کیا جاتا ہے جب سب سے زیادہ امکان بھی اس امتیاز کو مضبوط. اس طرح کی غیر ارادی غلطیوں کو سختی سے گریز کیا اور مسلسل جانچ پڑتال کرنے کی ضرورت ہے, وہ شعبہ تعلیم میں سماجی عدم مساوات کو وسیع کرے گا کے بعد.
"کے لئے پولیسی ساز, یہ مستعدی سے زیادہ سماجی سماتا تئیں اس میدان صورت گری کرنے کے لئے اب وقت آ گیا ہے. اور الگورتھم کی اصل ڈیزائن اور ترقی میں ملوث کیا جا رہا ہے ان لوگوں کی عکاسی کے لئے وقت لینا چاہئے کے بارے میں ان کی سماجی ذمہ داری اور اس میدان میں پیشہ ورانہ اخلاقیات کے عام معیارات تخلیق "- رالف میولر-Eiselt
کس طرح ان مسائل کو کم سے کم کیا جا سکتا ہے?
مندرجہ بالا مزید تفصیل سے وضاحت کی, ہم احتیاطی خطرے کے تعین کرتے ہیں اور غیر جانبدار تیسری پارٹیوں کے ذریعے الگورتھم کی بنیاد پر ایپلی کیشنز کی ایک مستقل اور جامع تشخیص کو یقینی بنانے کی ضرورت ہے. ہم نے بھی ایک وسیع تر عوامی بحث چنگاری اور استعمال کے لئے آگاہی پیدا کرنا چاہئے, امکانات اور تعلیم میں یلگوردمز کے خطرات. پالیسی سازوں کے لئے, یہ مستعدی سے زیادہ سماجی سماتا تئیں اس میدان صورت گری کرنے کے لئے اب وقت آ گیا ہے. اور الگورتھم کی اصل ڈیزائن اور ترقی میں ملوث کیا جا رہا ہے ان لوگوں کو ان کی سماجی ذمہ داری کے بارے میں عکاسی اور اس میدان میں پیشہ ورانہ اخلاقیات کے عام معیارات پیدا کرنے کے لئے وقت لینا چاہیئے.
AI کرو اور الگورتھم عالمی سطح پر مختلف تعلیمی نظام کے لئے readjusted جائے کرنے کی ضرورت ہے? کس طرح اہم یہ AI کی تشکیل میں ثقافتی اختلافات کو شامل کرنے کے لئے ہو جائے گا?
کیا دنیا میں سب سے زیادہ تعلیم کے نظام مشترک ہے کہ وہ بااختیار بنانے اور ان کے انفرادی صلاحیتوں اور پرتیبھا کی ترقی میں لوگوں کی مدد کرنے کا مقصد یہ ہے کہ, مختصرا: مواقع کی مساوات پیدا کرنے کے لئے. تاہم, رجوع اور اس مقصد کو حاصل کرنے کے طریقوں میں کئی گنا ہیں. ان میں سے سب ان کی طاقت اور کمزوریوں ہے. ضروری نہیں کہ ایک اور سماجی تناظر میں کیا ایک ہی جگہ میں کام کرتا ہے کام نہیں کرتا. اسی طرح میں, الگورتھم- اور AI کی بنیاد پر ایپلی کیشنز خاص سماجی و ثقافتی ماحول میں وہ ملازم کی جا رہی ہیں اس طرح ایڈجسٹ کیا جا کرنے کی ضرورت ہے.
(تمام تصاویر CMRubinWorld کے سوپیی ہیں)
C. M. روبن اور رالف میولر-Eiselt
سر مائیکل باربر سمیت میرے ساتھ اور عالمی سطح پر معروف فکری رہنماؤں (برطانیہ), ڈاکٹر. مائیکل بلاک (امریکہ), ڈاکٹر. لیون Botstein (امریکہ), پروفیسر مٹی Christensen کے (امریکہ), ڈاکٹر. لنڈا ڈارلنگ-ہیمنڈ (امریکہ), ڈاکٹر. MadhavChavan (بھارت), چارلس فاضل (امریکہ), پروفیسر مائیکل Fullan (کینیڈا), پروفیسر ہاورڈ گارڈنر (امریکہ), پروفیسر اینڈی Hargreaves نے (امریکہ), پروفیسر کریں Yvonne ہلمین (نیدرلینڈ), پروفیسر کرسٹن Helstad (ناروے), جین Hendrickson نے (امریکہ), پروفیسر گلاب Hipkins (نیوزی لینڈ), پروفیسر Cornelia Hoogland (کینیڈا), فاضل جیف جانسن (کینیڈا), مسز. چینٹل کوفمین (بیلجیم), ڈاکٹر. EijaKauppinen (فن لینڈ), سٹیٹ سیکرٹری TapioKosunen (فن لینڈ), پروفیسر ڈومینک Lafontaine (بیلجیم), پروفیسر ہیو Lauder (برطانیہ), رب کین میکڈونلڈ (برطانیہ), پروفیسر جیف ماسٹرز (آسٹریلیا), پروفیسر بیری McGaw (آسٹریلیا), شیو ندار (بھارت), پروفیسر R. نٹراجن (بھارت), ڈاکٹر. PAK NG (سنگاپور), ڈاکٹر. ڈینس پوپ (امریکہ), شریدر رازگوپالن (بھارت), ڈاکٹر. ڈیانے Ravitch (امریکہ), رچرڈ ولسن ریلی (امریکہ), سر کین رابنسن (برطانیہ), پروفیسر Pasi Sahlberg (فن لینڈ), پروفیسر Manabu ساتو (جاپان), Andreas کی Schleicher (پیسا, او ای سی ڈی), ڈاکٹر. انتھونی Seldon نے (برطانیہ), ڈاکٹر. ڈیوڈ Shaffer کے (امریکہ), ڈاکٹر. کرسٹن عمیق کر رہے ہیں (ناروے), چانسلر اسٹیفن Spahn (امریکہ), ایوز Theze (LyceeFrancais امریکہ), پروفیسر چارلس Ungerleider (کینیڈا), پروفیسر ٹونی ویگنر (امریکہ), سر ڈیوڈ واٹسن (برطانیہ), پروفیسر Dylan کے Wiliam (برطانیہ), ڈاکٹر. مارک Wormald (برطانیہ), پروفیسر تیو Wubbels (نیدرلینڈ), پروفیسر مائیکل نوجوان (برطانیہ), اور پروفیسر Minxuan جانگ (چین) وہ تمام اقوام کو آج سامنا ہے کہ بڑی تصویر تعلیم سوالات دریافت کے طور پر.
تعلیم کمیونٹی پیج کے لئے گلوبل تلاش
C. M. روبن وہ ایک موصول ہوئی ہے جس کے لئے دو بڑے پیمانے پر پڑھا سیریز کے مصنف ہے 2011 میں Upton سنکلیئر ایوارڈ, "عالمی تعلیم کے لئے تلاش کریں" اور "ہم کس طرح پڑھیں گے?"وہ تین bestselling کتابوں کے مصنف بھی ہے, سمیت Wonderland میں یلس اصلی, کے ناشر ہے CMRubinWorld اور ایک Disruptor فاؤنڈیشن فیلو.
C پر عمل کریں. M. ٹویٹر پر روبن: www.twitter.com/@cmrubinworld
حالیہ تبصرے