المقدمة
الذكاء الاصطناعي أو الذكاء الصنعي (بالإنجليزية: Artificial intelligence) هو سلوك وخصائص معينة تتسم بها البرامج
الحاسوبية، تجعلها تحاكي القدرات الذهنية البشرية وأنماط عملها. من أهم هذه
الخصائص القدرة على التعلم والاستنتاج ورد الفعل على أوضاع لم تبرمج في الآلة.
إلاّ أنَّ هذا المصطلح جدلي نظرًا لعدم توفر تعريف محدد للذكاء.
الذكاء الاصطناعي هو فرع من علم الحاسوب. تُعرِّف الكثير من المؤلفات الذكاء الاصطناعي، على أنه: «دراسة وتصميم العملاء الأذكياء»، والعميل الذكي هو نظام يستوعب بيئته ويتخذ المواقف التي تزيد من فرصته في النجاح في تحقيق مهمته أو مهمة فريقه.
التعريف
هذا التعريف، من حيث الأهداف
والأفعال والتصور والبيئة يرجع إلى Russell
& Norvig (2003) وتشمل أيضا التعريفات الأخرى
المعرفة والتعلم كمعايير إضافية. صاغ عالم الحاسوب جون مكارثي هذا المصطلح بالأساس
في عام 1956، وعرَّفه بنفسه بأنه «علم وهندسة صنع الآلات الذكية». ويعرِّف أندرياس
كابلان ومايكل هاينلين الذكاء الاصطناعي بأنه «قدرة النظام على تفسير البيانات
الخارجية بشكل صحيح، والتعلم من هذه البيانات، واستخدام تلك المعرفة لتحقيق أهداف
ومهام محددة من خلال التكيف المرن».
شات جي بي تي (المُحوّل التوليديّ المُدرَّب مُسبقًا للدردشة ) بالإنجليزية: ( ChatGPT ) روبوت محادثة طوّرته أوبن إيه آي وأُطلق في نوفمبر 2022. هو مبنيّ على عائلة جي بي تي-3 الخاصة بأوبن إي آي لنماذج اللغات الكبيرة وضُبط بدقة (إحدى طرق نقل التعلم) باستخدام تقنيات التعلم المراقب والتعليم المدعوم.
أُطلق نموذجٌ أوليّ من شات جي بي تي في 30 نوفمبر 2022، وسرعان ما حظي بالاهتمام لردوده التفصيلية والإجابات المفصلة في عديد من مجالات المعرفة. ومع ذلك، رأى البعض عدم تكافئ دقة معرفته بحقائق المجالات المختلفة على أنها عيب كبير. بعد إصدار شات جي بي تي، قُدّرت قيمة شركة أوبن إي آي بـ 29 مليار دولار أمريكيّ.
التدريب
شات جي بي تي –وهو محوّل توليديّ
مُدربٌ مسبقًا– ضُبط بدقة (أحد طرق نقل التعلم) فوق جي بي تي-3.5 باستخدام التعلم
المراقَب بالإضافة إلى التعلم المدعوم. استَخدَم كلا النهجين مُدرِّبين بشريين
لتحسين أداء النموذج. في حالة التعلم المدعّم، زُوّد النموذج بمحادثات لعب فيها المدربون
كلا الجانبين: المستخدم ومساعد الذكاء الاصطناعي. في خطوة التعلم المدعوم، صنّف
المدربون البشريون أولاً الردود التي أنشأها النموذج في محادثة سابقة من حيث
الأفضلية. استُخدمت هذه التصنيفات لإنشاء "نماذج المكافآت" التي ضُبط
النموذج عليها باستخدام العديد من التكرارات لتحسين السياسة القريبة (PPO). تقدم خوارزميات تحسين
السياسة القريبة فائدة فعالة من حيث التكلفة لخوارزميات تحسين سياسة منطقة الثقة؛
إنها تتفادى عديد العمليات باهظة الثمن حسابيًا مع أداء أسرع. دُرّبت النماذج
بالتعاون مع مايكروسوفت على البنية التحتية للحوسبة الفائقة أزور.
بالإضافة إلى ذلك، تُواصِل أوبن إي
آي جمع البيانات من مستخدمي شات جي بي تي والتي يمكن استخدامها لمزيد من التدريب
والضبط الدقيق لشات جي بي تي. يُسمح للمستخدمين بالتصويت مع أو ضد الردود التي
يتلقونها من شات جي بي تي؛ عند التصويت المؤيِّد أو المضاد، يمكنهم أيضًا ملء حقل
نصيّ بملاحظات إضافية.
https://www.oracle.com/ae-ar/artificial-intelligence/what-is-ai/
https://ar.wikipedia.org/wiki/%D8%B0%D9%83%D8%A7%D8%A1_%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A