النسخة السابقة كانت "GPT-3.5″، وهي شبكة عصبية تولد النصوص وتتعلم عبر تحديد المليارات من الأنماط المميزة في الطريقة التي يربط بها البشر الكلمات والأرقام والرموز، لتتمكن من توليد النصوص وخلق الردود بالاعتماد على ما تعلمته من ملايين المصادر المتوفرة على شبكة الإنترنت، مثل ويكيبيديا والمقالات والكتب والمحادثات بين البشر.
في البداية، يجب ملاحظة أن نسخة "GPT-4" ستدعم روبوت "شات جي بي تي"، لكنها تدعم النسخة المدفوعة، باشتراك شهري 20 دولارا، ولن تتاح النسخة الجديدة للاستخدام أو التجربة العامة كما حدث مع سابقتها، على أمل أن تتاح في المستقبل للنسخة المجانية. لكن من المفترض أن نسخة "GPT-4" تدعم الروبوت الخاص بمحرك البحث "بينغ"، كما ذكرت شركة مايكروسوفت، منذ إطلاقه للتجربة خلال الشهر الماضي.
روبوت يرى!
حسنا، الفارق الأول هو أن النموذج الجديد "GPT-4" هو نموذج متعدد الوسائط، أي إنه قادر على تحليل النصوص والصور معا، وهذا هو الفارق الأكبر بينه وبين أسلافه. فعندما تعرض عليه صورة، يمكنه تحليل مكونات تلك الصورة، وربطها بالسؤال الذي تسأله، وتوليد إجابة عن السؤال. فمثلا، يمكنك أن تعرض عليه صورة من محتويات ثلاجتك وتسأله ما الوجبة التي يمكن أن تُحضِّرها، سيقوم الروبوت بتحليل الصورة ومعرفة ما تلك المحتويات، ثم يقترح عليك عددا من الوجبات التي يمكنك تحضيرها بالمكونات الموجودة في ثلاجتك. (2)
يمكننا توقع وجود عدّة تطبيقات لهذه الميزة الجديدة، فمثلا عرضت الشركة إمكانية كتابة كود برمجي بالنموذج الجديد بناء على صورة مُلتقطة لهذا الكود مكتوبا بخط اليد في مفكرة عادية. كما أشارت الشركة إلى قدرة الروبوت على فهم الصور المضحكة وترجمة "الميمز" وما تعنيه وتحديد ما المضحك بها
تعليقات
إرسال تعليق