اوپن ایې ای آئی، چیٹ جي پی ٹی بنانے والی تشکیل، محفوظ ای آئی سسٹمز کا ترقی دینے پر عزم کرتی ہے

تصویر1.png

OpenAI نے ایک نئے وبلاگ پوسٹ شائع کی ہے جو معتبر حقیقیت پسندانہ اور عام فائدہ مند مصنوعی ذہانت (AI) تیار کرنے کا وعدہ دیتی ہے۔

ChatGPT، پاورڈ بائی اوپن ای آئی کا تازہ ترین ماڈل GPT-4 پر مشتمل ہے، جو پیدات آئیدہ ہراساں کرسکتا ہے، تخلیقیت کو بڑھا سکتا ہے، اور مخصوص تعلیمی تجربات فراہم کرسکتا ہے۔

اگرچہ، اوپن اے آئی ٹولز کو پہلے ہی قبولیت ہے کہ ان کے اندر خود مختار رسائیاں پائی جاتی ہیں جو سلامتی تدابیر اور ذمہ دار استعمال کے ذریعے حل کیا جا سکتا ہے۔

یہاں کمپنی ان خطرات کو کم کرنے کے لئے کیا کر رہی ہے۔

ایے آئی سسٹمز میں تحفظ کی یقینیت

OpenAI نئے سسٹموں کو جاری کرنے سے پہلے مکمل تجربے، ایکسپرٹوں کی خارجی رہنمائی کی تلاش کرتا ہے اور اپنے AI ماڈلوں کو مکمل کرتا ہے انسانی واپسی کے ساتھ.

GPT-4 کا اجرا، مثال کے طور پر، استعمال کاروں کی ضروریات کے ساتھ موافقت اور اس کی حفاظت کو یقینی بنانے کے لئے شش ماہ سے زیادہ کا امتحان کیا گیا تھا۔

OpenAI کا یقین ہے کہ مستحکم AI سسٹمز کو سختی سے تشخیصی تقییمات کے تحت رکھا جانا چاہئے اور تنظیم کی ضرورت کی حمایت کرتا ہے۔

حقیقی دنیا سے سیکھنے کا طریقہ

حقیقی دنیا میں استعمال سے محتاطانہ نئے AI سسٹمز کے ترقی کا اہم حصہ بنتا ہے۔ اپنا نیا نمونہ تدریجی طور پر بڑھتے ہوئے یوزر بیس کو ریلیز کر کے، اوپن اے آئی غیر متوقعہ مسائل کو حل کرنے کے لئے ترقی کر سکتی ہے۔

اپنی API اور ویب سائٹ کے ذریعے AI ماڈلز فراہم کرتے ہوئے ، اوپن ایئی غلط استعمال کے لئے نگرانی کر سکتی ہے ، مناسب کارروائی اٹھا سکتی ہے ، اور خطرے کو توازن رکھنے کی ملوث پالیسیاں تیار کرسکتی ہے۔

بچوں کی حفاظت اور حیثیتِ شخصیت کا احترام

OpenAI بچوں کی حفاظت پر توجہ دیتا ہے، اس کی تصدیق حاصل کرنا اور اس ٹیکنالوجی کو نقصان دہ مواد بنانے کے لئے استعمال کرنے سے ممنوع کرتا ہے۔

رازداری ایک اور ضروری پہلو ہے OpenAI کے کام کا۔ یہ تنظیم استعمال کی جانے والی ڈیٹا کو استعمال کرتی ہے تاکہ اس کے ماحول زیادہ مساعد بن سکے لیکن صارفین کی حفاظت بھی ہو سکے۔

علاوہ ازیں، OpenAI تربیتی ڈیٹا سیٹ سے شخصی معلومات کو حذف کرتا ہے اور ماڈل کو باری باری شخصی معلومات کی درخواستوں کو مسترد کرنے کے لئے تنسیب دیتا ہے۔

اوپن ای آئی اپنے سسٹم سے شخصی معلومات کو حذف کرنے کی درخواستوں کا جواب دے گا۔

حقائقی درستگی میں ترقی کرنا

ٹیوں 4 کی حقائقی درستگی اوپن اےئی کا ایک اہم ترجمہ ہے۔ گی پی ٹی-4 ماضی کے مقابلے گی پی ٹی-3.5 کے مقابلے میں دقیق مواد پیدا کرنے کا 40٪ زیادہ احتمال رکھتا ہے۔

تنظیم سعی کرتی ہے کہ صارفین کو AI ٹولز کی پابندیوں اور نا درستیوں کی ممکنہ حدود کے بارے میں تعلیم فراہم کی جائے۔

تحقیق اور مشارکت جاری رہے ہیں

اوپن اےئیئی اعتقاد رکھتا ہے کہ وقت اور وسائل کو موثر ترقی کرنے اور ایسی تربیتی تکنیکوں کی تحقیق کرنے میں وقت وسیع کرنا چاہئے۔

اگرچہ، یہ ایکلوں نہیں کر سکتی ہے۔ بیماریوں کی خطرے کے باعث بحث، تجربہ اور حیثیت رکھنے والے حصار کے درمیان درپیش معاملات کی ضرورت ہوتی ہے۔

OpenAI کو مشراکت اور کھلا حوار کی ترویج پر قائم رہنے کا ثابت قدم رہنا ہے تاکہ ایک محفوظ AI نظام کی تشکیل ہو سکے۔

وجودی خطرات پر تنقید

اوپن اے آئی کی اپنی AI سسٹموں کی محفوظیت اور عمومی فائدوں کی یقین دہانی پر بھروسہ رکھنے کے باوجود، اس کی بلاگ پوسٹ نے سوشل میڈیا پر مذمت کا آغاز کیا ہے۔

ٹویٹر کے صارفین نے تشریف اثر اندازی کرتے ہوئے اظہارِ افسوس کیا ہے، ان کے مطابق اوپن اے آئی نے موجودہ علمِ حیات کی تشکیل کے ساتھ وابستہ خطرات سے نہیں نپٹا ہے۔

ایک ٹوئٹر صارف نے اپنے نااُمیدی کا اظہار کیا اور OpenAI کو اس کی بنیادی مشن کی خیانت کا الزام دیا اور مستوجب تنور جارحیت پر توجہ دی.

صارف کے خیال کے مطابق، اوپن‌ای آئی کی محفوظی کا طریقہ عمل سطحی ہے اور اصلی وجودی خطرات کا پتہ لگانے کے بجائے صائبین کو مطمئن کرنے سے زیادہ وقت دے رہی ہے۔

یہ کڑوا رنجیدہ کندھا در کھائی کا تصویر بنانے کا منہ برتنی ہے۔

آپ نے حتیٰ سمجھائے بغیر خودیتی خطرات کو ذکر تک نہیں کیا ہے جو کہ کئی شہریوں، تکنالوجسٹ، AI تحقیق کاروں اور AI صنعت کے رہنما بھی ہیں، جن میں آپ کے خود CEO @sama بھی شامل ہیں۔ @OpenAI خود کو خیانت کر رہا ہے۔…

— Geoffrey Miller (@primalpoly) 5 اپریل 2023

کسی اور صارف نے یہ اظہار خوشنامی کیا کہ اس اعلان کو نقصان دہی سمجھتا ہے، جس میں اصل مسائل کو کم اہمیت دی گئی ہیں اور واضح نہیں ہیں. صارف نے بھی دعویٰ کیا ہے کہ رپورٹ میں اخلاقی اصولوں اور خطرات پر غور کرنا منسوخ کیا گیا ہے، الشارع معلوم کراتے ہیں کہ اوپن اےآئی کا سیکیورٹی مسائل کے ساتھ کام کرنے کا طریقہ پورا ناقص ہے.

GPT-4 کے محب وابستے ہونے کے باوجود، میں آپ کے مضمون سے مایوس ہوں۔

یہ حقیقی مسائل پر پر جاتی ہے، غیر واضح رہتی ہے، اور AI ذاتی آگاہی سے جڑے اخلاقی مسائل اور خطرات کو نظرانداز کرتی ہے۔

میں نئیت کی قدردانی کرتا ہوں، لیکن یہ محفوظی مسائل کا حل کرنے کا صحیح طریقہ نہیں ہے۔

— FrankyLabs (@FrankyLabs) April 5, 2023

تنقید AI ترقی کے ذریعہ وجودی خطروں کی وسیع تشویشوں اور جاری مناظری مناظری کی پڑتال پر توجہ کو مضبوط کرتی ہے۔

OpenAI کی اعلان نے اس کی ذمہ داریوں کی عہد وفا کرنے، حفاظت، خصوصیت، اور درستگی کے بارے میں بیان کیا ہے، لیکن بڑھتے ہوئے خدشات کا حل کرنے کے لئے مزید بحث کی ضرورت کو تسلیم کرنا ضروری ہوتا ہے۔

متعلقہ مضامین

مزید دیکھیں >>

HIX.AI کے ساتھ AI کی طاقت کو غیر مقفل کریں!