قدمت “60 دقيقة” ادعاءً خاطئًا بشكل صادم حول روبوت محادثة Google AI

منذ أن أطلقت OpenAI العنان لـ ChatGPT في العالم ، رأينا أنها تأخذك لن يصدقها أشخاص. ادعى بعض الأشخاص أن برامج الدردشة الآلية لديها أجندة مستيقظة. غرد السناتور الأمريكي كريس مورفي أن ChatGPT “علمت” نفسها كيمياء متقدمة. حتى صحفيو التكنولوجيا المخضرمون كتبوا قصصًا عن كيفية عمل وقع chatbot في حبهم. يبدو كما لو أن العالم يتفاعل مع الذكاء الاصطناعي بنفس الطريقة التي تفاعل بها رجال الكهوف على الأرجح عندما رأوا النار لأول مرة: بارتباك مطلق ومناغاة غير متماسكة.

أحد أحدث الأمثلة يأتي من 60 دقيقة، الذي ألقى صوته في الحلبة بحلقة جديدة ركزت على الابتكارات في مجال الذكاء الاصطناعي التي تم بثها على قناة CBS Sunday. تضمنت الحلقة مقابلات مع أمثال سوندار بيتشاي ، الرئيس التنفيذي لشركة Google ، وشملت مشكوكًا فيها ادعاءات حول أحد نماذج اللغات الكبيرة للشركة (LLM).

يدور موضوع المقطع حول السلوك الناشئ ، والذي يصف أثرًا جانبيًا غير متوقع لنظام ذكاء اصطناعي لم يقصده بالضرورة مطورو النموذج. لقد رأينا بالفعل ظهور سلوك ناشئ في مشاريع الذكاء الاصطناعي الحديثة الأخرى. على سبيل المثال ، استخدم الباحثون مؤخرًا ChatGPT لإنشاء شخصيات رقمية ذات أهداف وخلفية في دراسة نُشرت على الإنترنت الأسبوع الماضي. لقد لاحظوا أن النظام يقوم بسلوكيات ناشئة متعددة مثل مشاركة معلومات جديدة من شخصية إلى أخرى وحتى تكوين علاقات مع بعضها البعض – وهو أمر لم يخطط له المؤلفون في البداية للنظام.

يعد السلوك الناشئ بالتأكيد موضوعًا جديرًا بالاهتمام لمناقشته في برنامج إخباري. أين ال 60 دقيقة يأخذ مقطع الفيديو منعطفًا ، على الرغم من ذلك ، عندما نتعرف على مزاعم أن روبوت الدردشة الخاص بـ Google كان قادرًا بالفعل على تعليم نفسه لغة لم تكن تعرفها من قبل بعد أن طُلب منها بهذه اللغة. قال سكوت بيلي ، مراسل شبكة سي بي إس نيوز ، في مقطع الفيديو: “على سبيل المثال ، تكيف أحد برامج الذكاء الاصطناعي من Google من تلقاء نفسه بعد أن طُلب منه ذلك بلغة بنغلاديش ، والتي لم يتم تدريبها على معرفتها”.

READ  ترقيات الخصوصية تحارب الراي اللساع وتخفي اسم الجهاز

تبين أنها كانت كاملة بكالوريوس. لا يقتصر الأمر على عدم تمكن الروبوت من تعلم لغة أجنبية “لم يتدرب على معرفتها أبدًا” ، ولكنه لم يعلم نفسه مهارة جديدة. دفع المقطع بأكمله باحثي وخبراء الذكاء الاصطناعي إلى انتقاد الإطار المضلل للبرنامج الإخباري على تويتر.

“آمل بالتأكيد أن يقوم بعض الصحفيين بمراجعة مقطع @ 60 دقيقة بالكامل على Google Bard كدراسة حالة حول كيفية * عدم * تغطية الذكاء الاصطناعي” ، قالت ميلاني ميتشل ، باحثة في الذكاء الاصطناعي وأستاذة في معهد سانتا في ، كتب في تغريدة.

“توقف عن التفكير السحري في التكنولوجيا! ليس من الممكن لـ #AI للرد باللغة البنغالية ، ما لم تكن بيانات التدريب ملوثة باللغة البنغالية أو تم تدريبها على لغة تتداخل مع البنغالية ، مثل الأسامية أو الأوريا أو الهندية ، “إم. أليكس أو. باحث في معهد ماساتشوستس للتكنولوجيا ، أضيفت في وظيفة أخرى.

من الجدير بالذكر ذلك 60 دقيقة المقطع لم يذكر بالضبط ما هو الذكاء الاصطناعي الذي استخدموه. ومع ذلك ، قال متحدث باسم شبكة سي بي إس لصحيفة ديلي بيست إن المقطع لم يكن نقاشًا على Bard ولكنه برنامج منفصل للذكاء الاصطناعي يسمى PaLM – تم دمج التكنولوجيا الأساسية له لاحقًا في Bard.

الأسباب التي جعلت هذا الجزء محبطًا جدًا لهؤلاء الخبراء هو أنه يتجاهل ويتلاعب بحقيقة ما يمكن أن يفعله الذكاء الاصطناعي التوليدي بالفعل. لا يمكنها “تعليم” نفسها لغة إذا لم يكن لها حق الوصول إليها في المقام الأول. سيكون هذا بمثابة محاولة لتعليم نفسك لغة الماندرين ولكنك لم تسمعها إلا بعد أن سألك أحدهم لغة الماندرين مرة واحدة.

بعد كل شيء ، اللغة معقدة بشكل لا يصدق – مع الفروق الدقيقة والقواعد التي تتطلب درجة لا تصدق من السياق لفهمها والتواصل معها. لا توجد طريقة حتى لـ LLM الأكثر تقدمًا للتعامل مع كل ذلك وتعلمه من خلال بعض المطالبات.

READ  كيفية اختراق Nintendo Switch ، إصدار 2023: Picofly و HWFLY و RCM و OLED و unpatched vs patched ...

تم تدريب PaLM بالفعل مع البنغالية ، اللغة السائدة في بنغلاديش. شرحت مارغريت ميتشل (لا علاقة لها) ، الباحثة في مختبر بدء التشغيل في AT HuggingFace والتي كانت تعمل سابقًا في Google ، هذا في سقسقة الموضوع جعل حجة لماذا 60 دقيقة كان خطأ.

أشار ميتشل إلى أنه في عرض توضيحي لعام 2022 ، أظهرت Google أن PaLM يمكنها التواصل والاستجابة للمطالبات باللغة البنغالية. ال ورق خلف PaLM كشفت في ورقة بيانات أن النموذج تم تدريبه بالفعل على اللغة مع ما يقرب من 194 مليون رمز في الأبجدية البنغالية.

لذلك لم يتعلم أي شيء بطريقة سحرية عبر موجه واحد. كان يعرف اللغة بالفعل.

من غير الواضح لماذا جلس بيتشاي ، الرئيس التنفيذي لشركة Google ، للمقابلة وسمح لهذه الادعاءات بالاستمرار دون أي معارضة. (لم تستجب Google لطلبات التعليق.) منذ بث الحلقة ، ظل صامتًا على الرغم من إشارة الخبراء إلى الادعاءات المضللة والكاذبة المقدمة في المقطع. على تويتر مارجريت ميتشل مقترح قد يكون السبب وراء ذلك مزيجًا من قادة Google الذين لا يعرفون كيفية عمل منتجاتهم وأيضًا أنه يسمح بنشر الرسائل الرديئة من أجل معالجة الضجيج الحالي حول الذكاء الاصطناعي التوليدي.

“أظن [Google executives] حرفيا لا أفهم كيف يعمل ، ميتشل غرد. “ما كتبته أعلاه هو على الأرجح أخبار لهم. ويتم تحفيزهم على عدم الفهم (أغمض عينيك عن ورقة البيانات هذه !!) “.

يمكن أيضًا أن يُنظر إلى النصف الثاني من الفيديو على أنه إشكالي حيث ناقش بيتشاي وبيلي قصة قصيرة ابتكرها بارد والتي “بدت بشريًا للغاية” ، وتركت الرجلين في حالة اهتزاز إلى حد ما.

الحقيقة هي أن هذه المنتجات ليست سحرية. إنهم غير قادرين على أن يكونوا “بشرًا” لأنهم ليسوا بشرًا. إنها متنبئات نصية مثل تلك الموجودة على هاتفك ، وقد تم تدريبها على ابتكار أكثر الكلمات والعبارات احتمالية بعد سلسلة من الكلمات في العبارات. إن القول بأنهم موجودون قد يمنحهم مستوى من السلطة يمكن أن يكون خطيرًا بشكل لا يصدق.

READ  إطلاق Blade Assault لأجهزة PS5 و Xbox Series و PS4 و Xbox One و Switch في 31 مارس

بعد كل شيء ، يمكن للمستخدمين استخدام أنظمة الذكاء الاصطناعي التوليدية هذه للقيام بأشياء مثل نشر المعلومات الخاطئة. لقد رأينا بالفعل هذا الأمر يتلاعب بتشابهات الأشخاص وحتى أصواتهم.

حتى روبوت المحادثة من تلقاء نفسه يمكن أن يسبب ضررًا إذا انتهى بإنتاج نتائج متحيزة – وهو شيء رأيناه بالفعل مع أمثال ChatGPT و Bard. بمعرفة نزوع روبوتات المحادثة هذه إلى الهلوسة واختلاق النتائج ، فقد تكون قادرة على نشر معلومات مضللة للمستخدمين المطمئنين.

البحث يحمل هذا أيضا. دراسة حديثة نشرت في التقارير العلمية وجد أن الردود البشرية على الأسئلة الأخلاقية يمكن أن تتأثر بسهولة بالحجج التي قدمتها ChatGPT – وحتى أن المستخدمين قللوا بشكل كبير من مدى تأثرهم بالروبوتات.

الادعاءات المضللة بشأن 60 دقيقة هي في الحقيقة مجرد عرض لحاجة أكبر لمحو الأمية الرقمية في وقت نحن في أمس الحاجة إليه. يقول العديد من خبراء الذكاء الاصطناعي إنه الآن ، أكثر من أي وقت مضى ، هو الوقت الذي يحتاج فيه الناس إلى إدراك ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله. يجب أيضًا توصيل هذه الحقائق الأساسية حول الروبوتات بشكل فعال للجمهور الأوسع.

هذا يعني أن الأشخاص الذين لديهم أكبر المنصات وأصواتهم عالية (أي وسائل الإعلام والسياسيون والمديرين التنفيذيين في شركات التكنولوجيا الكبرى) يتحملون أكبر قدر من المسؤولية في ضمان مستقبل أكثر أمانًا وتعليمًا فيما يتعلق بالذكاء الاصطناعي. إذا لم نفعل ذلك ، فقد ينتهي بنا الحال مثل رجال الكهوف المذكورين أعلاه ، نلعب بسحر النار – ونحرق في هذه العملية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *