هل أنت مهتم بهم OFFERED؟ حفظ مع كوبونات لدينا على ال WHATSAPP o برقية!

لدى OpenAI فكرة رائعة حول التحكم في المحتوى باستخدام GPT-4

في العصر الرقمي الذي نعيش فيه ، التحكم في المحتوى أصبح أحد التحديات الأكثر إلحاحًا لمنصات الإنترنت. مع تطور الذكاء الاصطناعي ، تؤمن شركة OpenAI بشدة بـ قدرة GPT-4 على معالجة هذه المشكلة وربما حلها. في مدونتها الرسمية ، تتحدث الشركة الأكثر تسليط الضوء على تلك الفترة عن طريقة رائعة لتغيير الاتجاه في المستقبل القريب.

فكرة OpenAI عن التحكم في المحتوى ليست سوى فكرة غبية

OpenAI ، المنظمة التي تقف وراء البرامج الثورية مثل ChatGPT و DALL-E ، مقتنعة بأن GPT-4 يمكن أن يكون la مفتاح لمعالجة واحدة من أكثر المشاكل تعقيدًا في قطاع التكنولوجيا: التحكم في المحتوى على نطاق واسع. الفكرة هي أن يمكن أن يحل GPT-4 محل عدد كبير من الوسطاء البشريين، مما يضمن دقة قابلة للمقارنة تقريبًا واتساقًا أكبر في القرارات.

في الآونة الأخيرة، كشف أوبن إيه آي سبق لهم تجربة استخدام GPT-4 لتطوير سياسات المحتوى الخاصة بهم وتنقيحها. هذا لا يتعلق فقط بتسمية المحتوى ، ولكن أيضًا اتخاذ قرارات حاسمة بشأن ما ينبغي وما لا ينبغي السماح به. ليليان وينغ، رئيس أنظمة الأمن في OpenAI ، أكد على أهمية هذا التطور ، مشيرًا إلى أنه يمثل خطوة مهمة في الطريق يمكن استخدام الذكاء الاصطناعي لمعالجة المشاكل الحقيقية، وتقديم الحلول التي يمكن أن تفيد المجتمع بأسره.

التحكم في محتوى openai

اقرأ أيضا: تثبت هذه الشركة أن الذكاء الاصطناعي لن يسرق وظائفنا ... بل على العكس تمامًا

الأسباب الثلاثة التي تجعل عملية OpenAI عملية ثورية

  • الاتساق في القرارات: على عكس البشر ، الذين يمكنهم تفسير السياسات بطرق مختلفة ، فإن الآلات متسقة في أحكامهم. يمكن تنفيذ المبادئ التوجيهية ، التي يمكن أن تكون بطول كتاب ويتم تغييرها بشكل متكرر ، على الفور من خلال نماذج اللغة الكبيرة ، في حين أن البشر يحتاجون إلى الكثير من التدريب للتعلم والتكيف.
  • السرعة في إنشاء سياسات جديدة: تمتلك GPT-4 القدرة على تطوير سياسة جديدة في غضون ساعات ، مما يحدث ثورة في عملية تستغرق عادةً أسابيع أو شهور. وهذا يشمل الصياغة ، والتسمية ، وجمع الملاحظات ، وتنقيح السياسات.
  • رعاية العمال: تركز OpenAI على رفاهية العمال الذين يتعرضون باستمرار لمحتوى ضار ، مثل إساءة معاملة الأطفال أو مقاطع الفيديو الخاصة بالتعذيب. يمكن أن تقلل أتمتة هذه العملية من تعرض الإنسان لمثل هذا المحتوى الصادم.

ومع ذلك ، لا يزال هناك طريق طويل لنقطعه نحو الاعتدال المؤتمت بالكامل. في حين أن الذكاء الاصطناعي لديه القدرة على تحسين الاعتدال ، لا يزال هناك العديد من التحديات المقبلة. على سبيل المثال ، ملف التمييز بين المحتوى المخادع وغير الصحيح والعدواني التي ليست بالضرورة غير قانونية تمثل تحديًا كبيرًا للأنظمة الآلية. حتى الخبراء البشريين يكافحون لتسمية مثل هذه المنشورات ، وغالبًا ما ترتكب الآلات أخطاء.

خطر على عمل الإنسان؟

كالعادة ، نتحدث دائمًا عن هذا: هل سيسرق الذكاء الاصطناعي وظائفنا؟ بالنسبة لمعظم الشركات التي تستخدم الإشراف على المحتوى ، فإن الأمر يستحق الحذر. على الرغم من تقدم الذكاء الاصطناعي بشكل ملحوظ في السنوات الأخيرة ، لن يسلب الوظائف البشرية في أي وقت قريب. تظل الرقابة البشرية مكونًا بالغ الأهمية لمراقبة المحتوى عبر الإنترنت بدقة. إذن الجواب لا ، لن يسرق العمل لكنه سيحسنه.

ومع ذلك ، من المهم أن ندرك أن مثل هذا التطور في التكنولوجيا يجب أن يتوافق أيضًا مع زيادة مستوى تخصص العاملين في المجال التكنولوجي. إذا كان هذا مفقودًا ، فإن الاستبدال أمر لا مفر منه.

"في أحسن الأحوال ، ما لدينا وما سنستمر في امتلاكه هو مزيج هجين. لكن في السنوات القليلة الماضية ، كل ما رأيته هو زيادة في التوظيف وليس انخفاض" قال الأستاذة بجامعة كاليفورنيا في لوس أنجلوس سارة تي روبرتس أ وشك قبل عدة سنوات. يجب أن تكون استراتيجية تعديل المحتوى الناجحة تجمع بين أفضل تقنيات الجيل القادم والوكلاء البشريين.

جيانلوكا كوبوتشي
جيانلوكا كوبوتشي

شغوف بالأكواد واللغات واللغات وواجهات الإنسان والآلة. كل ما هو التطور التكنولوجي يهمني. أحاول الإفصاح عن شغفي بمنتهى الوضوح، معتمدًا على مصادر موثوقة وليس "من أول وهلة".

الاشتراك
أبلغ
ضيف

0 تعليقات
التقيمات المضمنة
عرض جميع التعليقات
XiaomiToday.it
الشعار