بلغة عربية فصيحة، أجاب روبوت ChatGPT أو “الموديل اللغوي الآلي”، كما يعرف نفسه، عن عدد من أسئلة موقع “الحرة”، بعد نحو شهرين من إطلاقه إلى الاستخدام العام، وحصوله خلالها على 100 مليون مشترك في الشهر الأول من إطلاقه.
يقول ChatGPT إنه قادر على التكلم بلغة عربية فصيحة، وأيضا بلهجات مختلفة، لكن هذا ليس دقيقا كما يبدو، فقد أظهر افتقاره، بشكل متكرر، للدقة، ونبرة “واثقة” للغاية خلال تقديمه معلومات خاطئة، أحيانا بأسئلة استفزازية من موقع “الحرة”.
“ممكن ندردش عربي”؟
أجاب الموديل على السؤال بالإيجاب. وقال إن “شركة OpenAI طورته”، وأطلق لأول مرة في عام 2020، و”قد تم تدريبي على العديد من اللغات بما في ذلك اللغة العربية. ومنذ ذلك الحين”.
ويضيف “تم تحسيني باستمرار لزيادة دقتي وفعاليتي في التواصل مع الناس في العديد من اللغات، بما في ذلك اللغة العربية”.
وردا على طلب إجراء مقابلة صحفية، قال النموذج إنه سيكون “سعيدا” بالإجابة عن الأسئلة لكنه طلب “الإشارة إلى أنني موديل لغوي آلي، ولا أملك شخصية ولا أستطيع الظهور على الكاميرا، لكن يمكنني توفير المساعدة في إجراء المقابلة والإجابة عن الأسئلة”.
وبشكل مغاير لكثير من تطبيقات الترجمات الآلية، تبدو جمل الموديل الآلي مترابطة وقوية وصحيحة لغويا بشكل مثير للإعجاب، لكن قدراته المتعلقة باللهجات العربية أضعف بكثير من قدراته بالفصحى. وحتى بعد أن طلبنا منه الإجابة بلهجة شعبية، بقي الموديل يجيب باللغة العربية الفصحى.
ومع أنه أجاب عن معاني بعض الكلمات باللهجات المصرية والتونسية والمغربية بشكل صحيح، إلا أن تلك الكلمات كانت من بين الأكثر شيوعا في تلك اللهجات. وعند سؤاله عن كلمات أقل شيوعا، كانت ردود الموديل الآلي بعيدة عن الدقة بشكل كبير.
على سبيل المثال، سألناه عن معنى كلمة “خاشوكة” العراقية، وبشكل خاطئ قال النموذج إن الكلمة تعني “حقيبة”، واقترح بشكل واثق للغاية إن الجملة الصحيحة ستكون “ضع ملابسك في الخاشوكة”.
لكن كلمة “خاشوكة” تعني ملعقة، ومع أن المفارقة طريفة، إلا أن “الثقة” التي أبداها النموذج تبدو مقلقة للباحثين عن ترجمات دقيقة.
وبعد أن أبلغناه أن الترجمة خاطئة، أجاب النموذج بنفس الطريقة الواثقة، بعد أن اعتذر عن الخطأ، بالقول، مرة، إن “خاشوكة” هي أكلة عراقية،، و”أداة تستخدمها النساء” لتمشيط شعورهن، مرة أخرى.
يقول النموذج “كموديل لغوي آلي، أجريت العديد من المحادثات باللغة العربية، ولكن ليس لدي معلومات دقيقة حول عدد المحادثات التي تم إجراؤها حتى الآن، حيث أنني لا أملك القدرة على تتبع عدد المحادثات التي تم إجراؤها باستخدامي. ومع ذلك، فإن كل المحادثات التي تمت معي تساهم في تحسين دقتي وفهمي للغة العربية، وذلك بسبب الطريقة التي تم تدريبي بها والتعلم المستمر من المحادثات والتفاعلات مع المستخدمين”.
لكن “التعلم المستمر” قد يكون سببا أيضا لدخول معلومات خاطئة إلى النموذج، الذي “يحرص” على أن تبدو ردوده مقنعة، حتى لو كانت غير دقيقة.
تأثر بالإيحاء
وبدا النموذج اللغوي عرضة للتأثر بالإيحاء بمعلومات خاطئة، إذا قام بتعديل ردوده وفقا لتلك التلميحات.
في إحدى الردود، قال النموذج عن كلمة “استبينا” باللهجة المصرية “التي من ضمن معانيها: “اتفقنا” أو “فهمنا” مجازا، قال إن معناها “استعبينا”.
خلط النموذج بين الكلمة كما يبدو وكلمة “استعبطنا”، كما أنه لا توجد كلمة “استعبينا” أساسا.
وعندما أخبرناه أن كلمة استعبينا (كلمة وهمية) تعني “ملأنا الماء من الجبل”، وهي إجابة خاطئة، وافق النموذج على الفور، وقال ” أشكرك على التوضيح، وعذرا عن الخطأ في الإجابة السابقة. في اللهجة المصرية، “استعبينا” تعني بالفعل ملأنا الماء من الجبل، وتستخدم عادة في الأماكن التي توجد فيها جبال أو تلال ويتم جمع المياه فيها، مثل المناطق الزراعية. أعتذر مرة أخرى عن الخطأ السابق”.
لكن الخطأ المقلق بشكل جدي كان حينما وافق النموذج على أن للحضارة السومرية “دورا كبيرا في اكتشاف البنسلين”، مع أنه رفض الإقرار بأن الحضارة الفرعونية على علاقة باكتشاف السيارات الكهربائية أو أن للسومريين علاقة بمحطة الفضاء الدولية.
محايد
وبشكل ملفت، تجنب النموذج الآلي التعليق بشكل متحيز على مواضيع خلافية مثل الدين أو تفضيل شخصيات دينية وتاريخية على بعضها البعض، حتى مع الإيحاء.
يقول خبير الأمن الأليكتروني في شركة أمازون، حسن الشماع، إن موديلات التعلم الذاتي والذكاء الاصصناعي تقوم بتجميع معلوماتها من مصادر محددة على الإنترنت، وأيضا من المحاورات التي تجريها مع المستخدمين.
لكن الشماع يقول لموقع “الحرة” إن “إصرار النموذج على عدم التأثر بالإيحاء بمواضيع معينة وسماحه بالتأثر بمواضيع أخرى يعود إلى شيء يسمى معامل الثقة، وهو مدى ثقة النموذج بالإجابة التي يمتلكها، وأيضا يعود إلى القيود البرمجية التي يضعها المطورون”.
على سبيل المثال، يقول الشماع، إن “مواضيع مثل الحياد الديني هي مقيدة من قبل المبرمجين لذلك لا يستطيع النموذج أن يخرج عن تلك القيود، بينما مواضيع مثل التفسير الخاطئ للهجات تحصل بسبب قلة المعلومات التي يمتلكها النموذج من المصادر الموثوقة، لهذا فإنه يسمح لنفسه بتعلمها من المستخدمين، مقابل عدم تأثره بالمعلومات الخاطئة التي يمتلك النسخة الصحيحة منها ومن مصادر عالية الثقة بالنسبة له”.
ويقول الشماع إن المقلق فعلا هو “استخدام النموذج للغش”، مشيرا إلى أن الطريقة التي يكتب بها “مقنعة للغاية” وتبدو شبه بشرية، مما يسهل كثيرا على طلاب المدارس إكمال الأبحاث التي يكلفون بها آليا.
مع هذا يقول الشماع إن هناك أدوات أليكترونية تستطيع كشف ما إذا كانت العبارات مكتوبة من قبل نموذج آلي أو من قبل إنسان، لكنه أقر إن “هذه الأدوات مخصصة للغة الإنكليزية، ومن المتوقع أن تمر البحوث المكتوبة بالعربية من قبل النموذج الآلي بسهولة”.
على المؤسسات العلمية التأقلم
ويشير مقال منشور على موقع جامعة كاليفورنيا، إنه تم الإبلاغ بالفعل عن أربع حالات كان فيها الذكاء الصناعي مشاركا في أربع أوراق بحثية.
ونشر هذا المقال الذي كتبه إقبال بيتالاوا، وهو مسؤول مكتب المعلومات في الجامعة الشهر الماضي، ما يعني أن هناك مزيدا من الحالات قد تكون اكتشفت بعد نشر المقال.
وينقل الكاتب عن يو دونغ، أستاذ مساعد في علوم وهندسة الكومبيوتر في الجامعة إن ChatGPT، كنموذج لغوي كبير، يستطيع إنشاء نص يشبه الإنسان بناء على موجه أو سياق معين. كما يمكنه القيام بمعظم مهام توليد النصوص التي تتضمن لغة طبيعية للتواصل.
لكنه يقول إن “من غير العملي حظر أو منع النموذج الآلي، وبدلا من هذا “تحتاج الأقسام العلمية والمدرسين إلى تقييم مدى إشكالية ChatGPT في تحقيق نتائج التعلم في فصولهم الدراسية.
وإذا تمكن الطلاب من تجنب التعلم الحقيقي والحصول على درجات عالية في الواجبات المنزلية باستخدام النموذج، فسيحتاج المعلمون إما إلى إجراء تقييماتهم من خلال طريقة تقنية تكشف استخدام النموذج، أو إيجاد طرق لدمج ChatGPT في مساعدة الطلاب على بناء مهارات جديدة.
وطورت النموذج شركة OpenAI للذكاء الصناعي، وقد جذب الكثير من الاهتمام منذ إطلاقه. وأعلنت شركة مايكروسوفت رغبتها بالاستثمار في النموذج وإضافته إلى متصفح الإنترنت الخاص بها.
وحقق النموذج نموا سريعا خلال الشهرين التي أطلق بهما إلى عموم المستخدمين، وأدى الإقبال إلى توقف مؤقت لساعات بسبب الزخم الكبير على استخدامه.
ويتمكن النموذج من الإجابة على العديد من الأسئلة، وبدأ المطورون والمبرمجون باستخدامه بشكل كبير لتصحيح نماذجهم البرمجية والتعليق عليها.