في العصر الرقمي الذي نعيش فيه ، التحكم في المحتوى أصبح أحد التحديات الأكثر إلحاحًا لمنصات الإنترنت. مع تطور الذكاء الاصطناعي ، تؤمن شركة OpenAI بشدة بـ قدرة GPT-4 على معالجة هذه المشكلة وربما حلها. في مدونتها الرسمية ، تتحدث الشركة الأكثر تسليط الضوء على تلك الفترة عن طريقة رائعة لتغيير الاتجاه في المستقبل القريب.
مواضيع هذا المقال:
فكرة OpenAI عن التحكم في المحتوى ليست سوى فكرة غبية
OpenAI ، المنظمة التي تقف وراء البرامج الثورية مثل ChatGPT و DALL-E ، مقتنعة بأن GPT-4 يمكن أن يكون la مفتاح لمعالجة واحدة من أكثر المشاكل تعقيدًا في قطاع التكنولوجيا: التحكم في المحتوى على نطاق واسع. الفكرة هي أن يمكن أن يحل GPT-4 محل عدد كبير من الوسطاء البشريين، مما يضمن دقة قابلة للمقارنة تقريبًا واتساقًا أكبر في القرارات.
في الآونة الأخيرة، كشف أوبن إيه آي سبق لهم تجربة استخدام GPT-4 لتطوير سياسات المحتوى الخاصة بهم وتنقيحها. هذا لا يتعلق فقط بتسمية المحتوى ، ولكن أيضًا اتخاذ قرارات حاسمة بشأن ما ينبغي وما لا ينبغي السماح به. ليليان وينغ، رئيس أنظمة الأمن في OpenAI ، أكد على أهمية هذا التطور ، مشيرًا إلى أنه يمثل خطوة مهمة في الطريق يمكن استخدام الذكاء الاصطناعي لمعالجة المشاكل الحقيقية، وتقديم الحلول التي يمكن أن تفيد المجتمع بأسره.
اقرأ أيضا: تثبت هذه الشركة أن الذكاء الاصطناعي لن يسرق وظائفنا ... بل على العكس تمامًا
الأسباب الثلاثة التي تجعل عملية OpenAI عملية ثورية
- الاتساق في القرارات: على عكس البشر ، الذين يمكنهم تفسير السياسات بطرق مختلفة ، فإن الآلات متسقة في أحكامهم. يمكن تنفيذ المبادئ التوجيهية ، التي يمكن أن تكون بطول كتاب ويتم تغييرها بشكل متكرر ، على الفور من خلال نماذج اللغة الكبيرة ، في حين أن البشر يحتاجون إلى الكثير من التدريب للتعلم والتكيف.
- السرعة في إنشاء سياسات جديدة: تمتلك GPT-4 القدرة على تطوير سياسة جديدة في غضون ساعات ، مما يحدث ثورة في عملية تستغرق عادةً أسابيع أو شهور. وهذا يشمل الصياغة ، والتسمية ، وجمع الملاحظات ، وتنقيح السياسات.
- رعاية العمال: تركز OpenAI على رفاهية العمال الذين يتعرضون باستمرار لمحتوى ضار ، مثل إساءة معاملة الأطفال أو مقاطع الفيديو الخاصة بالتعذيب. يمكن أن تقلل أتمتة هذه العملية من تعرض الإنسان لمثل هذا المحتوى الصادم.
ومع ذلك ، لا يزال هناك طريق طويل لنقطعه نحو الاعتدال المؤتمت بالكامل. في حين أن الذكاء الاصطناعي لديه القدرة على تحسين الاعتدال ، لا يزال هناك العديد من التحديات المقبلة. على سبيل المثال ، ملف التمييز بين المحتوى المخادع وغير الصحيح والعدواني التي ليست بالضرورة غير قانونية تمثل تحديًا كبيرًا للأنظمة الآلية. حتى الخبراء البشريين يكافحون لتسمية مثل هذه المنشورات ، وغالبًا ما ترتكب الآلات أخطاء.
خطر على عمل الإنسان؟
كالعادة ، نتحدث دائمًا عن هذا: هل سيسرق الذكاء الاصطناعي وظائفنا؟ بالنسبة لمعظم الشركات التي تستخدم الإشراف على المحتوى ، فإن الأمر يستحق الحذر. على الرغم من تقدم الذكاء الاصطناعي بشكل ملحوظ في السنوات الأخيرة ، لن يسلب الوظائف البشرية في أي وقت قريب. تظل الرقابة البشرية مكونًا بالغ الأهمية لمراقبة المحتوى عبر الإنترنت بدقة. إذن الجواب لا ، لن يسرق العمل لكنه سيحسنه.
ومع ذلك ، من المهم أن ندرك أن مثل هذا التطور في التكنولوجيا يجب أن يتوافق أيضًا مع زيادة مستوى تخصص العاملين في المجال التكنولوجي. إذا كان هذا مفقودًا ، فإن الاستبدال أمر لا مفر منه.
"في أحسن الأحوال ، ما لدينا وما سنستمر في امتلاكه هو مزيج هجين. لكن في السنوات القليلة الماضية ، كل ما رأيته هو زيادة في التوظيف وليس انخفاض" قال الأستاذة بجامعة كاليفورنيا في لوس أنجلوس سارة تي روبرتس أ وشك قبل عدة سنوات. يجب أن تكون استراتيجية تعديل المحتوى الناجحة تجمع بين أفضل تقنيات الجيل القادم والوكلاء البشريين.