الخلاصة: تصنف الحواشي البيانات البيانات وتسميها ، مما يسمح للذكاء الاصطناعي بالتعلم من خلال إيجاد أنماط في كميات كبيرة من البيانات ، وتعتبر بمثابة "عمالة شبحية" مخبأة خلف الجهاز. عمل التعليقات التوضيحية هو أساس الذكاء الاصطناعي ، وقد شكل سلسلة إمداد كاملة ، وسيستمر هذا النوع من العمل في الوجود لفترة طويلة.
ركز
يتعلم الذكاء الاصطناعي من خلال البحث عن أنماط في كميات كبيرة من البيانات ، ولكن يجب أولاً تصنيف هذه البيانات وتصنيفها من قبل البشر ، وظهور شروح البيانات.
عمل المعلقين ممل ومضجر ، وغالبًا ما يحتاجون إلى القيام بعمل متكرر ويتقاضون رواتبهم على أساس قطعة بقطعة ، ويتراوح متوسط الراتب في الساعة بين 5 و 10 دولارات أمريكية (حوالي 36 إلى 72 يوان). بحلول بداية هذا العام ، تم تخفيض الأجور بالساعة لبعض المعلقين إلى دولار واحد إلى 3 دولارات للساعة (حوالي 7 إلى 22 يوان).
لا تزال أعمال التعليقات التوضيحية هي أساس الذكاء الاصطناعي ، وقد شكلت سلسلة توريد كاملة. هذه الأنواع من الوظائف موجودة لتبقى لفترة طويلة قادمة.
تختلف أعمال التعليقات التوضيحية عن الهواتف الذكية وتصنيع السيارات من حيث سهولة تشوهها وانسيابها ، وغالبًا ما تتدفق إلى أماكن ذات تكاليف تشغيل أقل.
بعد بضعة أشهر من تخرجه من جامعة نيروبي ، وجد جو ، البالغ من العمر الآن 30 عامًا ، وظيفة كمعلق توضيحي ، مما يساعد في معالجة المعلومات الأولية المستخدمة في تدريب الذكاء الاصطناعي ، والتي كانت مملة ومملة. يتعلم الذكاء الاصطناعي من خلال العثور على أنماط في كميات كبيرة من البيانات ، ولكن يجب أولاً تصنيف هذه البيانات وتصنيفها من قبل البشر ، لذلك يمكن القول إن البشر هم "عمال أشباح" مختبئون وراء الآلات.
خذ عمل Joe ، على سبيل المثال ، حيث يصنف فيديو للسيارات ذاتية القيادة ، وتحديد السيارات والمشاة وراكبي الدراجات وأي شيء يحتاج السائق إلى الانتباه إليه ، إطارًا تلو الآخر ، من كل زاوية كاميرا. هذا عمل صعب ومتكرر. يستغرق مقطع الفيديو القصير الذي تبلغ مدته بضع ثوان ثماني ساعات للتعليق عليه ، ويتقاضى Joe مقابله حوالي 10 دولارات.
ثم ، في عام 2019 ، برزت فرصة أمامه ، وبدأ جو في تدريب المجندين لشركة جديدة كانت في حاجة ماسة إلى المعلقين ، وكسبوا أربعة أضعاف هذا المبلغ. كل أسبوعين ، يصطف 50 موظفًا جديدًا لدخول مبنى إداري في نيروبي لبدء تدريبهم المهني. تبدو الحاجة إلى الشروح لا نهاية لها. سيُطلب منهم تصنيف الملابس التي يرونها في صورة شخصية في المرآة ، وتحديد الغرفة التي يتواجدون فيها من خلال عيون مكنسة كهربائية آلية ، ورسم مربعات حول دراجة نارية تم مسحها ضوئيًا بواسطة الليدار. عادة ما يترك أكثر من نصف طلاب جو الدراسة قبل انتهاء التدريب. وأوضح بلطف أن "بعض الناس لا يعرفون كيفية البقاء في مكان واحد لفترة طويلة". بالإضافة إلى أنه يعترف بأن "الوظيفة مملة".
لكنها وظيفة جيدة في مكان تندر فيه الوظائف ، وقد أنتج جو المئات من الخريجين. بعد التدريب ، يمكن للمتدربين العودة إلى المنزل والعمل بمفردهم في غرف نومهم ومطابخهم دون إخبار أي شخص بما يفعلونه. هذه ليست المشكلة الحقيقية لأنهم لا يفهمون حتى ما يفعلونه.
يعد تصنيف الأشياء للسيارات ذاتية القيادة أمرًا سهلاً ، ولكن تصنيف قصاصات الحوار المشوهة وتحديد ما إذا كان المتحدث روبوتًا أو إنسانًا محفوف بالتحديات. كل كائن التعرف هو جزء صغير من مشروع أكبر ، لذلك من الصعب تحديد ما الذي يقومون بتدريب الذكاء الاصطناعي على فعله بالضبط. لا توفر أسماء هذه الكائنات أيضًا أي أدلة ، فإن Crab Generation و Whale Segment و Woodland Gyro و Pillbox Bratwurst كلها رموز وظيفية بدون أي ترتيب منطقي.
أما بالنسبة للشركة التي وظفتهم ، فإن معظم الناس يعرفون ذلك باسم Remotasks ، وهو موقع ويب يوفر فرص عمل لأي شخص يتحدث الإنجليزية بطلاقة. مثل معظم المعلقين ، لم يكن جو يعرف أن Remotasks كانت شركة عمل تعاقدية مملوكة لشركة Scale AI. Scale AI هو مزود بيانات Silicon Valley بمليارات الدولارات ومن عملائه شركة OpenAI للذكاء الاصطناعي والجيش الأمريكي. لا يذكر كل من Remotasks ولا Scale AI بعضهما البعض على مواقع الويب الخاصة بهما.
01 مساعدة الآلات ذات القدرات البشرية الفريدة
ركز الكثير من ردود الفعل العامة على نماذج اللغات الكبيرة مثل ChatGPT من OpenAI على العمل الذي يبدو أنهم مستعدون لأتمتة. ولكن حتى أكثر أنظمة الذكاء الاصطناعي إثارة للإعجاب يحتاج إلى مساعدة من البشر ، الذين يدربونه عن طريق تصنيف البيانات والتدخل عند اختلاطها. يمكن فقط لتلك الشركات التي يمكنها تحمل تكلفة شراء البيانات التنافس في الصناعة ، وتلك التي تحصل على البيانات ستبذل جهودًا كبيرة لإبقائها سرية. والنتيجة هي أننا ، باستثناء عدد قليل من الناس ، نعرف القليل جدًا عن المعلومات التي تؤثر على سلوك هذه الأنظمة ، وحتى أقل عن الأشخاص الذين يقفون وراء السلوك الذي يشكلها.
بالنسبة لطلاب جو ، إنها وظيفة مجردة من كل مظاهر الحياة الطبيعية: من المتوقع أن يلتزموا بجدول زمني صارم ولا يحتاجون إلى معرفة ما يفعلونه أو من يعملون من أجله. في الواقع ، نادراً ما يطلقون على أنفسهم اسم العمل ، مجرد "مهام" روتينية. يسمون أنفسهم عمال المهام.
عرّف عالم الأنثروبولوجيا ديفيد جريبر ما يسمى بـ "الأعمال الهراء" - الوظائف التي ليس لها معنى أو غرض. هذه وظائف يجب أن تتم أتمتتها ، ولكنها ليست كذلك ، لأسباب تتعلق بالبيروقراطية أو الوضع أو القصور الذاتي. تتشابه وظيفة تدريب الذكاء الاصطناعي: فالوظائف التي يرغب الناس في أتمتة ، تُعتبر عمومًا مؤتمتة ، لكنها لا تزال تتطلب مشاركة البشر. هذه المهام لها أغراض خاصة ، لكن أصحاب التعليقات التوضيحية ليسوا على علم بها.
بدأ ازدهار الذكاء الاصطناعي الحالي بهذا العمل الشاق والمتكرر. في وقت مبكر من عام 2007 ، اشتبهت Fei-Fei Li ، وهي باحثة في الذكاء الاصطناعي وأستاذة في جامعة برينستون ، في أن مفتاح تحسين الشبكات العصبية للتعرف على الصور هو التدريب على المزيد من البيانات ، مما يتطلب ملايين الصور المصنفة بدلاً من عشرات الآلاف. المشكلة هي أن فريقها كان سيستغرق عقودًا وملايين الدولارات لوضع علامة على هذه الصور العديدة.
وجدت Fei-Fei Li الآلاف من العمال في منصة التعهيد الجماعي في Amazon ، الميكانيكية Turk ، حيث يقوم الناس حول العالم بإنجاز مهام صغيرة مقابل تكلفة زهيدة. مكنت مجموعة البيانات الناتجة التي تحمل اسم ImageNet ، والمعروفة باسم ImageNet ، من تحقيق تقدم كبير في التعلم الآلي ، مما أدى إلى تنشيط المجال وإدخال التقدم في العقد الماضي.
تظل التعليقات التوضيحية جزءًا أساسيًا من تطوير الذكاء الاصطناعي ، ولكن غالبًا ما يشعر المهندسون أنه شرط مسبق سريع ومرهق لعمل النمذجة الأكثر روعة. يمكنك جمع أكبر قدر ممكن من البيانات المصنفة بتكلفة زهيدة لتدريب نموذجك الخاص ، وإذا كان بإمكانك القيام بذلك ، على الأقل من الناحية النظرية ، فلن تحتاج إلى تعليقات توضيحية بعد الآن. ومع ذلك ، لا يتم عمل التعليقات التوضيحية حقًا. يجادل الباحثون بأن أنظمة التعلم الآلي "هشة" وعرضة للفشل عند مواجهة أشياء في بيانات التدريب لم يتم شرحها بشكل جيد. تُعرف هذه الإخفاقات باسم "حالات الحافة" ويمكن أن يكون لها عواقب وخيمة.
في عام 2018 ، قتلت سيارة اختبارية ذاتية القيادة من شركة أوبر ، امرأة لأنها ، على الرغم من كونها مبرمجة لتجنب راكبي الدراجات والمشاة ، لم تكن تعرف ماذا تفعل مع راكبي الدراجات الذين يعبرون الشارع. الناس. نظرًا لأن المزيد من أنظمة الذكاء الاصطناعي تقدم المشورة القانونية والمساعدة الطبية ، فإن الحالات الأكثر خطورة التي يواجهونها تتطلب المزيد من البشر لفرزها. وقد أدى ذلك إلى نشوء صناعة عالمية لأشخاص مثل جو يستخدمون قدراتهم البشرية الفريدة لمساعدة الآلات.
على مدار الأشهر الستة الماضية ، تحدث المراسل الاستقصائي التكنولوجي جوش دزيزا إلى أكثر من عشرين من المعلقين التوضيحيين من جميع أنحاء العالم ، وكثير منهم يدربون روبوتات محادثة متطورة ، ولكن أيضًا العديد منهم يقومون بالعمل البدني العادي المطلوب للحفاظ على تشغيل الذكاء الاصطناعي. . قام البعض بفهرسة المحتوى العاطفي لمقاطع فيديو TikTok ، وأشكال جديدة من البريد العشوائي ، والإعلانات غير المناسبة عبر الإنترنت. يبحث الآخرون في معاملات بطاقات الائتمان ومعرفة أنواع المشتريات المرتبطة بها ، أو يبحثون في توصيات التجارة الإلكترونية ويقررون ما إذا كنت ستحب هذا القميص بالفعل بعد شراء قميص آخر.
يصحح البشر أخطاء روبوتات المحادثة لخدمة العملاء ، ويستمعون إلى طلبات المساعد الذكي من أمازون Alexa ، ويصنفون مشاعر الناس في مكالمات الفيديو. إنهم يصنفون الطعام بحيث لا يتم الخلط بين الثلاجات الذكية من خلال التغليف الجديد ، ويفحصون الكاميرات الأمنية الآلية قبل دق ناقوس الخطر ، ويساعدون الجرارات المستقلة المشوشة في تحديد الذرة.
02 التعليقات من الشركات الكبرى ، ولدت "أصغر ملياردير عصامي"
قال سونام جيندال ، مدير البرامج والأبحاث في منظمة الشراكة غير الربحية حول الذكاء الاصطناعي: "إنها سلسلة توريد كاملة. التصور العام في الصناعة هو أن هذا العمل ليس جزءًا مهمًا من تطوير التكنولوجيا ، إنه ليس جزءًا مهمًا من تطور التكنولوجيا. "ستزدهر لفترة طويلة. ينتشر كل الإثارة حول بناء الذكاء الاصطناعي ، وبمجرد بنائه ، لم تعد هناك حاجة إلى التعليقات التوضيحية ، فلماذا نفكر في ذلك؟ لكن تسمية البيانات هي أساس الذكاء الاصطناعي ، تمامًا مثل البشر بقدر ما يمثل الذكاء أساس الذكاء الاصطناعي ، فنحن بحاجة إلى النظر إلى هذه الوظائف على أنها وظائف حقيقية في اقتصاد الذكاء الاصطناعي ، وهي موجودة لتبقى لفترة طويلة قادمة ".
يأتي بائعو البيانات وراء الأسماء المألوفة مثل OpenAI و Google و Microsoft بأشكال مختلفة. هناك أيضًا شركات تعهيد خاصة لها مكاتب شبيهة بمراكز الاتصال ، مثل CloudFactory في كينيا ونيبال ، حيث يقوم Joe بعمل التعليقات التوضيحية مقابل 1.20 دولار في الساعة قبل التبديل إلى Remotasks.
هناك أيضًا مواقع "عمل جماعي" مثل Mechanical Turk و Clickworker ، حيث يمكن لأي شخص الاشتراك لإكمال المهام. في المنتصف توجد خدمات مثل Scale AI. يمكن لأي شخص التسجيل ، ولكن يجب على الجميع اجتياز اختبار مؤهل ودورة تدريبية ومراقبة الأداء. التعليقات التوضيحية هي عمل كبير. تأسست شركة Scale AI في عام 2016 على يد ألكسندر وانغ البالغ من العمر 19 عامًا ، وبلغت قيمتها 7.3 مليار دولار في عام 2021 ، مما جعله واحدًا من أصغر المليارديرات في مجلة فوربس.
سلسلة التوريد المعقدة هذه يصعب على الغرباء فهمها. وفقًا لمصادر الصناعة ، فإن الشركات التي تشتري البيانات المصنفة تطالب بسرية تامة. تؤدي التعليقات التوضيحية أحيانًا إلى تسريب معلومات حول نظام الذكاء الاصطناعي قيد التطوير ، كما أن إضافة عدد كبير من التعليقات التوضيحية يجعل منع التسرب أمرًا صعبًا. يتم تحذير المعلقين دائمًا من إخبار أي شخص عن عملهم ، ولا حتى أصدقائهم وزملائهم. الأهم من ذلك ، أن التقسيم الشديد للعمل يضمن عدم امتلاكهم معلومات كافية للحديث عن وظائفهم ، حتى لو أرادوا ذلك.
بالنظر إلى هذا ، لا توجد طريقة لإعطاء تقديرات مفصلة لعدد الأشخاص الذين يعملون في التعليقات التوضيحية ، ولكن ما هو مؤكد هو أن هناك الكثير وينمو بسرعة. نشرت Google Research مؤخرًا ورقة تقدم تقديرات غامضة لعدد المعلقين بـ "الملايين" وربما "المليارات" في المستقبل.
غالبًا ما تأتي الأتمتة بطرق غير متوقعة. يتذكر إريك دوهيمي ، الرئيس التنفيذي لشركة Centaur Labs ، وهي شركة توضيحي للبيانات الطبية ، أنه قبل بضع سنوات ، توقع العديد من مهندسي التعلم الآلي البارزين أن الذكاء الاصطناعي سيحل محل أخصائيي الأشعة. عندما لا يحدث ذلك ، تتحول الحكمة التقليدية إلى أخصائيي الأشعة الذين يستخدمون الذكاء الاصطناعي كأداة.
وفقًا لدوهيم ، لم يحدث أي من هذين الأمرين. الذكاء الاصطناعي جيد جدًا في مهام محددة ، مما يدفع إلى تقسيم العمل وتخصيصه لأنظمة خوارزمية متخصصة وبشر متخصصين على حد سواء. على سبيل المثال ، قال ، قد يكون نظام الذكاء الاصطناعي قادرًا على اكتشاف السرطان ، ولكن فقط في أنواع معينة من الأجهزة ، في أنواع معينة من الصور. لذا ، فأنت بحاجة إلى شخص ما للمساعدة في التحقق من أن الذكاء الاصطناعي يتم تغذيته بالنوع الصحيح من البيانات ، وربما شخص آخر للتحقق من أنه يعمل قبل تسليمه إلى ذكاء اصطناعي آخر لكتابة تقرير وأخيراً إلى الإنسان. قال دوهيم: "لن يحل الذكاء الاصطناعي محل الوظائف البشرية ، لكنه يغير طريقة تنظيم الوظائف".
إذا كنت تعتقد أن الذكاء الاصطناعي هو آلة تفكير ذكية ، فقد تتجاهل البشر الذين يقفون وراءه. يعتقد دو هيمي أن تأثير الذكاء الاصطناعي على العمل الحديث يشبه الانتقال من الحرفيين إلى التصنيع الصناعي: يتم تقسيم العمليات المتماسكة إلى مهام صغيرة ، يتم ترتيبها على طول خط التجميع ، ويتم إكمال بعض الخطوات بواسطة الآلات ، وبعضها بواسطة البشر ، تختلف عن سابقاتها ، والوضع مختلف تمامًا.
غالبًا ما يتم مواجهة المخاوف بشأن اضطراب الذكاء الاصطناعي بالقول إن الذكاء الاصطناعي يقوم بأتمتة مهام معينة ، وليس وظائف كاملة. غالبًا ما تكون هذه المهام مملة ومملة ، مما يترك الناس لمتابعة عمل إنساني أكثر إرضاءً. ولكن من الممكن أيضًا أن يبدو صعود الذكاء الاصطناعي مثل تقنيات توفير العمالة في الماضي ، ربما مثل الهاتف أو الآلة الكاتبة ، والتي تقضي على الكدح الناتج عن تمرير الرسائل والكتابة اليدوية ، ولكنها تولد المزيد من المعلومات حول الاتصالات والتجارة و الأعمال الورقية: لدرجة أن هناك حاجة إلى مكتب جديد به أنواع جديدة من العمال ، والموظفين ، والمحاسبين ، والكتاب على الآلة الكاتبة ، وما إلى ذلك ، لإدارتها. قد لا تفقد وظيفتك عندما ينضم الذكاء الاصطناعي إلى وظيفتك ، لكنها قد تصبح أكثر غرابة وعزلة ومملة.
03 تبسيط الواقع المعقد إلى شيء يمكن للآلة قراءته
في وقت سابق من هذا العام ، اشتركت الصحفية زيادة في وظيفة مع Remotasks. العملية بسيطة. ما عليك سوى إدخال مواصفات الكمبيوتر وسرعة الشبكة ومعلومات الاتصال الأساسية للدخول إلى "مركز التدريب". للحصول على مهام مدفوعة الأجر ، كان على Ziyeza أولاً إكمال الدورات التمهيدية ذات الصلة ، ولكن غير مدفوعة الأجر. عرض مركز التدريب سلسلة من الدروس بأسماء غير مفهومة مثل Glue Swimsuits و Poster Hawaii. نقرت Zieza على شيء يسمى GFD Chunking ، والذي يدعو إلى وضع علامة على الملابس في صور وسائل التواصل الاجتماعي.
علاوة على ذلك ، هناك تعليمات لمهام مثل الاضطرار إلى تصنيف العناصر الحقيقية ، والتي يمكن للبشر ارتدائها ، أو التي يقصد أن يرتديها أشخاص حقيقيون. واثقًا في قدرته على تمييز الملابس الحقيقية التي يمكن أن يرتديها الأشخاص الحقيقيون من الملابس المزيفة التي لا يستطيع الأشخاص الحقيقيون ارتداءها ، شرع زيزا في اختبارها. ومع ذلك ، فقد أصيب على الفور على رأسه: أعطى الكمبيوتر صورة في مجلة لامرأة ترتدي تنورة. هل يجب اعتبار صور الملابس ملابس حقيقية؟ اعتقدت زيادة ، لا ، لأن الناس لا يمكنهم ارتداء صور الملابس. النتيجة تظهر خطأ! لأنه في عيون الذكاء الاصطناعي ، صور الملابس الحقيقية تعادل الملابس الحقيقية.
الصورة التالية لامرأة تلتقط صورة سيلفي في مرآة كاملة الطول في غرفة نوم مضاءة بشكل خافت. القميص والشورت الذي ترتديه ملابس حقيقية وهل انعكاس الملابس حقيقي؟ كما أعطى زيزا إجابة سلبية ، لكن نظام الذكاء الاصطناعي يعتقد أن انعكاس الملابس الحقيقية يجب أن يكون أيضًا ملابس حقيقية.
بعد تجربة محرجة وخطأ ، بدأ Ziyeza أخيرًا في العمل ، فقط ليكتشف لرعبه أن التعليمات التي كان يكافح من أجل اتباعها قد تم تحديثها عدة مرات ونمت إلى 43 صفحة في الطول ، بما في ذلك عدم وضع علامة على حقيبة مفتوحة مليئة الملابس ؛ لا تضع علامة على الأحذية ولكن تضع علامة على الزعانف ؛ ضع علامة على اللباس الداخلي وليس الجوارب ؛ لا تضع علامة على المناشف حتى إذا كان شخص ما يرتديها ؛ لا تضع علامة على الملابس ، ولكن لا تضع عليها تسمية الدروع. إلخ......
قال ميلاغروس ميكيلي ، الباحث الذي يعمل على البيانات في معهد Weizenbaum في ألمانيا ، إن هناك ارتباكًا واسع النطاق في جميع أنحاء الصناعة. يعد هذا جزئيًا نتاجًا للطريقة التي تتعلم بها أنظمة التعلم الآلي. يحتاج البشر فقط إلى بعض الأمثلة لفهم مفهوم "القميص" ، بينما تحتاج برامج التعلم الآلي إلى آلاف الأمثلة ، وهم بحاجة إلى القيام بذلك باتساق تام وتنوع كافٍ (قمصان بولو ، قمصان للارتداء في الهواء الطلق ، قمصان معلقة على رف) حتى يتمكن النظام من التعامل مع التنوع في العالم الحقيقي. قال ميسيلي: "تخيل أننا بحاجة إلى تقليص الواقع المعقد إلى شيء تستطيع الآلات الخرقاء قراءته".
بالنسبة للآلات ، يقدم فعل تبسيط الواقع تعقيدًا هائلاً. يجب أن يأتي كتاب التعليمات بقواعد تسمح للبشر بتصنيف العالم باتساق تام. للقيام بذلك ، غالبًا ما ينشئون فئات لا يستخدمها البشر. إذا طُلب من شخص ما أن يقوم بتسمية جميع القمصان الموجودة في صورة ما ، فقد لا يقوم بتسمية القمصان في المرآة لأنهم يعلمون أنها انعكاسات وليست ملابس فعلية. لكن بالنسبة للذكاء الاصطناعي الذي لا يفهم العالم الحقيقي ، فهو مجرد بكسلات ، وهما متماثلان تمامًا. إذا تم تمييز بعض القمصان في مجموعة البيانات ولم تكن القمصان المنعكسة أخرى غير موجودة ، فلن يعمل النموذج. لذلك عاد المهندس إلى المورد بمعلومات محدثة وطلب تسمية القميص الذي انعكس في المرآة. قريبًا ، سيكون لديك دليل آخر من 43 صفحة ، كلها بأحرف كبيرة حمراء.
عادةً ما تكون وظيفة المعلق هو وضع الفهم البشري جانبًا واتباع التعليمات بدقة شديدة. كما قال أحد المعلقين ، فكر كإنسان آلي. إنها مساحة عقلية غريبة حيث تبذل قصارى جهدك لاتباع قواعد سخيفة ولكنها صارمة ، مثل إجراء اختبار قياسي أثناء تناول المواد المهلوسة. دائمًا ما يكون لدى المعلقين أسئلة محيرة مثل ، هل هذا قميص أحمر مع شريط أبيض أم أنه قميص أبيض مع شريط أحمر؟ إذا كان وعاء من الخيزران مملوءًا بالتفاح ، فهل هو "وعاء زخرفي"؟ ما هو لون طباعة الفهد؟ يجب الإجابة على كل سؤال ، وقد يؤدي تخمين واحد خاطئ إلى منعك وبدء مهمة جديدة تمامًا ومختلفة تمامًا بقواعدها المحيرة.
04 ادفع لكل قطعة ، تحقق من المهمة كل ثلاث ساعات
يتم دفع معظم الوظائف في "المهام عن بعد" على أساس قطعة تلو الأخرى ، وتتراوح الأرباح من بضعة سنتات إلى بضعة دولارات مقابل مهمة ما. نظرًا لأن المهام قد تستغرق ثوانٍ أو ساعات لإكمالها ، فمن الصعب التنبؤ بالرواتب. عندما أتت شركة Remotasks إلى كينيا لأول مرة ، قال المعلقون إنها دفعت جيدًا نسبيًا. يتراوح ذلك في المتوسط بين 5 دولارات و 10 دولارات للساعة ، اعتمادًا على المهمة. لكن بمرور الوقت ينخفض الراتب.
قالت آنا فرانكو ، المتحدثة باسم Scale AI ، إن اقتصاديي الشركة يحللون تفاصيل المشروع والمهارات المطلوبة وتكلفة المعيشة الإقليمية وعوامل أخرى "لضمان تعويض عادل وتنافسي." قال الموظفون السابقون في Scale AI أيضًا إن التعويض يتم تحديده من خلال آلية مشابهة لتسعير التضخم ، والتي يتم تعديلها بناءً على عدد المعلقين المتاحين والسرعة التي تتطلب البيانات. تشير الإحصائيات إلى أن المعلقين عن بعد في الولايات المتحدة يكسبون عادة ما بين 10 إلى 25 دولارًا في الساعة ، لكن الخبراء في بعض حقول التعليقات التوضيحية المهنية يحصلون على رواتب أعلى. وبحلول بداية هذا العام ، انخفض راتب المعلقين الكينيين إلى 1 إلى 3 دولارات أمريكية (حوالي 7 إلى 22 يوانًا) في الساعة.
الشكوى الأكثر شيوعًا حول العمل عن بُعد هي تنوعه. هذا النوع من العمل مستقر بما يكفي ليكون وظيفة طويلة الأمد بدوام كامل ، ولكن لا يمكن التنبؤ به كثيرًا بحيث لا يمكن الاعتماد عليه بالكامل. يقضي المعلقون ساعات في قراءة التعليمات واستكمال التدريب المجاني فقط لإكمال عشرات المهام قبل انتهاء المشروع. قد لا تكون هناك مهام جديدة لبضعة أيام ، وبعد ذلك ، فجأة ، تنبثق مهمة مختلفة تمامًا ، ربما لساعات إلى أسابيع. قد تكون أي مهمة هي الأخيرة ، ولا يعرفون أبدًا متى ستأتي المهمة التالية.
يقول المهندسون وموردو البيانات إن دورة الازدهار والكساد هذه تنبع من وتيرة تطوير الذكاء الاصطناعي. يتطلب تدريب نموذج كبير الكثير من التعليقات التوضيحية ، متبوعة بمزيد من التحديثات المتكررة ، ويريد المهندسون حدوث كل هذا في أسرع وقت ممكن حتى يتمكنوا من الوفاء بتاريخ الإصدار المستهدف. قد يحتاجون إلى الآلاف من المعلقين على مدار بضعة أشهر ، ثم ينخفضون إلى بضع مئات ، وأخيراً فقط عشرات الخبراء من نوع معين. تتكرر هذه العملية أحيانًا في دورات. "السؤال هو ، من يتحمل تكلفة هذه التقلبات؟" قالت الشراكة على Jindal للذكاء الاصطناعي.
لكي تكون ناجحًا ، يجب أن يعمل المعلقون معًا. بدأ فيكتور العمل في Remotasks عندما كان طالبًا جامعيًا في نيروبي ، وعندما قيل له إنه يواجه مشكلة في مهمة مراقبة حركة المرور ، قال إن الجميع يعرف أن يبتعد عن هذه المهمة: صعب للغاية ، وأجر ضعيف ، ولا يستحق ذلك. مثل العديد من المعلقين ، يستخدم فيكتور مجموعة WhatsApp غير رسمية لنشر الكلمة عند ظهور مهام جيدة. عندما أتى بفكرة جديدة ، كان سيبدأ اجتماعًا مرتجلًا في Google ليوضح للآخرين كيفية القيام بذلك. يمكن لأي شخص الانضمام والعمل معًا لفترة من الوقت ومشاركة النصائح. قال: "لقد طورنا ثقافة مساعدة بعضنا البعض لأننا نعلم أن شخصًا واحدًا لا يعرف كل الحيل".
يحتاج المعلقون دائمًا إلى توخي الحذر ، حيث تظهر الوظائف وتختفي دون سابق إنذار. وجد فيكتور أن العناصر غالبًا ما تظهر في منتصف الليل ، لذلك اعتاد الاستيقاظ كل ثلاث ساعات أو نحو ذلك لفحصها. عندما تكون هناك مهمة ، سيبقى دائمًا مستيقظًا. في وقت من الأوقات ، ذهب 36 ساعة دون نوم ، ووضع علامات على المرفقين والركبتين والرؤوس في الصور الجماعية ، على الرغم من أنه لم يكن يعرف السبب. مرة أخرى ، بقي مستيقظًا لفترة طويلة لدرجة أن عينيه كانتا حمراء ومنتفخة.
غالبًا ما يعرف المعلقون أنهم يدربون أنظمة الذكاء الاصطناعي للشركات في أماكن أخرى ، ولكن في بعض الأحيان يتلاشى حجاب إخفاء الهوية وهناك الكثير من الإشارات للعلامات التجارية أو روبوتات المحادثة المذكورة في التعليمات. قال أحد المعلقين: "قرأت التعليمات ، بحثت في غوغل واكتشفت أنني أعمل لدى ملياردير يبلغ من العمر 25 عامًا. إذا جعلت شخصًا مليارديرًا وجني بضعة دولارات ، فأنا حرفياً أضيع حياتي".
بدأ فيكتور ، الذي يصف نفسه بأنه "مؤمن جامح" بالذكاء الاصطناعي ، بعمل التعليقات التوضيحية لأنه أراد المساعدة في تحقيق مستقبل مؤتمت بالكامل. لكن في وقت سابق من هذا العام ، نشر شخص ما قصة في مجلة Time في مجموعة WhatsApp الخاصة به حول كيفية دفع الموظفين في مزود Sama AI أقل من 2 دولار في الساعة لتدريب ChatGPT على تحديد المحتوى السام. قال فيكتور ، الذي لم يكن يعلم بالعلاقة بين Remotasks و Scale AI حتى تم إخباره عنها: "الناس غاضبون لأن هذه الشركات مربحة للغاية وتدفع القليل جدًا". كانت التعليمات الخاصة بإحدى المهام التي عمل عليها مطابقة تقريبًا لتلك التي استخدمها OpenAI ، مما يعني أنه ربما كان يتدرب أيضًا على ChatGPT ، مقابل حوالي 3 دولارات في الساعة. "
وأتذكر أن أحدهم نشر أنه سيتم تذكرنا في المستقبل "، أجاب صفر:" لقد عوملنا أسوأ من المشاة. لن نتذكر في أي مكان في المستقبل ، وأنا أتذكر ذلك جيدًا. لن يتعرف أحد على العمل الذي نقوم به والجهود التي نبذلها. "
تحديد الملابس وتصنيف محادثات خدمة العملاء ليست سوى عدد قليل من وظائف التعليقات التوضيحية. في الآونة الأخيرة ، فإن أكثر الأشياء إثارة في السوق هي برامج chatbot. نظرًا لأنه يتطلب خبرة خاصة بالمجال أو طلاقة في اللغة ، وتميل الرواتب إلى التعديل حسب المنطقة ، تميل الوظيفة إلى دفع المزيد. يمكن أن تحقق أنواع معينة من التعليقات التوضيحية المهنية ما يصل إلى 50 دولارًا أو أكثر في الساعة.
عندما كانت امرأة تدعى آنا تبحث عن وظيفة في تكساس ، صادفت قائمة وظائف عامة عبر الإنترنت وتقدمت بطلب. بعد اجتياز امتحان تمهيدي ، دخلت غرفة Slack التي تضم 1500 شخصًا يتدربون على مشروع يسمى Dolphin ، والذي اكتشفت لاحقًا أنه chatbot الخاص بـ Google DeepMind Sparrow ، وهو أحد برامج الدردشة العديدة التي تتنافس مع ChatGPT واحد. وظيفة آنا هي الدردشة مع Sparrow طوال اليوم ، والراتب في الساعة حوالي 14 دولارًا ، بالإضافة إلى مكافأة كفاءة العمل العالية ، "هذا بالتأكيد أفضل من العمل في السوبر ماركت المحلي لكسب 10 دولارات في الساعة."
05 يستجيب الذكاء الاصطناعي لثلاثة معايير: الدقة والفائدة وعدم الإضرار
وآنا تحب الوظيفة. لقد ناقشت الخيال العلمي والمفارقات الرياضية وألغاز الأطفال والبرامج التلفزيونية مع سبارو. في بعض الأحيان ، تجعلها إجابات روبوت الدردشة تضحك بصوت عالٍ. في بعض الأحيان ، تشعر أيضًا بأنها عاجزة عن الكلام. قالت آنا: "في بعض الأحيان ، لا أعرف حقًا ماذا أسأل ، لذلك لديّ دفتر ملاحظات صغير به صفحتان بالفعل. أنا في Google موضوعات مثيرة للاهتمام ، لذلك أعتقد أنه يمكنني القيام بعمل جيد. تعامل مع سبع ساعات ، وهذا ليس هو الحال دائمًا ".
في كل مرة تطلب فيها Anna من Sparrow ، فإنها تقدم إجابتين ، وتختار أفضل إجابتين ، مما يؤدي إلى إنشاء ما يسمى "بيانات ردود الفعل البشرية". عندما ظهر ChatGPT في أواخر العام الماضي ، كان الفضل في أسلوب المحادثة الطبيعي المثير للإعجاب إلى حقيقة أنه تم تدريبه على كميات هائلة من بيانات الإنترنت. لكن اللغة التي تشغل ChatGPT ومنافسيها تمت تصفيتها من خلال عدة جولات من التعليقات التوضيحية البشرية.
كتب فريق من المقاولين أمثلة عن الكيفية التي أراد بها المهندسون أن يتصرف روبوت المحادثة ، وطرحوا الأسئلة ثم قدموا الإجابات الصحيحة ، ووصف برامج الكمبيوتر ، ثم أعطوا الرموز الوظيفية ، وطلبوا نصائح جنائية ، ثم رفضوا بأدب. بعد تدريب النموذج على هذه الأمثلة ، يتم تقديم المزيد من المقاولين للمطالبة به وترتيب ردوده. هذا ما فعلته آنا لسبارو.
تباينت بالضبط المعايير التي طُلب من المقيمين استخدامها ، مثل الصدق أو المساعدة أو التفضيل الشخصي فقط. النقطة المهمة هي أنهم ينشئون بيانات حول الذوق البشري ، وبمجرد توفر البيانات الكافية ، يمكن للمهندسين تدريب نموذج ثانٍ لتقليد تفضيلاتهم على نطاق واسع ، وأتمتة عملية التصنيف وتدريب الذكاء الاصطناعي على التعرف على طريقة الذوق البشري في التصرف. والنتيجة هي روبوت شبيه بالبشر يرفض بشكل أساسي الطلبات الضارة ويفسر طبيعة الذكاء الاصطناعي بطريقة تبدو وكأنها مدركة لذاتها.
بعبارة أخرى ، يبدو ChatGPT بشريًا لأنه تم تدريبه من قبل ذكاء اصطناعي يحاكي الإنسان ويتصرف مثل الإنسان.
يُطلق على هذه التقنية اسم "التعلم المعزز من ردود الفعل البشرية" أو RLHF باختصار ، وهي فعالة جدًا في التوقف عن التفكير فيما لا يفعله الذكاء الاصطناعي. على سبيل المثال ، عندما يعلم أحد المعلقين أن نموذجًا ما ليكون دقيقًا ، لا يتعلم النموذج التحقق من الإجابات مقابل المنطق أو المصادر الخارجية ، أو حتى الدقة ، كمفهوم. على الرغم من أن النموذج لا يزال عبارة عن آلة تنبؤ نصية تحاكي أنماط الكتابة البشرية ، فقد تم الآن استكمال مجموعة التدريب الخاصة به بأمثلة مخصصة وتم ترجيح النموذج لدعمها.
قد يتسبب هذا في قيام النموذج باستخراج أنماط من أجزاء من خريطة لغته تم تمييزها على أنها دقيقة وإنتاج نص يتطابق مع الحقيقة ، ولكنه قد يتسبب أيضًا في تقليد الأسلوب الواثق والمصطلحات الخاصة بالنص الدقيق أثناء كتابة شيء خاطئ تمامًا . ليس هناك ما يضمن أن النص الذي تم تحديده على أنه دقيق بواسطة التعليقات التوضيحية دقيق بالفعل. حتى لو كانت دقيقة ، فليس هناك ما يضمن أن النموذج قد تعلم النمط الصحيح منه.
هذه الديناميكية تجعل كتابة التعليقات التوضيحية على روبوتات المحادثة أمرًا صعبًا. يجب أن يكون صارمًا ومتسقًا ، لأن التغذية المرتدة غير المتقنة ، مثل تمييز المواد ذات الصوت الصحيح على أنها دقيقة ، يمكن أن تجعل النموذج المدرَّب أكثر إقناعًا. استخدم OpenAI و DeepMind RLHF في مشروع مشترك سابق ، في هذه الحالة ، لتدريب يد روبوتية افتراضية على الإمساك بجسم ما ، والذي تبين أيضًا أنه يقوم بتدريب اليد الروبوتية على الوضع والتأرجح حول الكائن بين الكائن ومُقيِّمه ، وهذا بالطريقة التي ستظهر فقط للمشرفين عليها من البشر.
دائمًا ما يكون ترتيب إجابات نموذج اللغة شخصيًا إلى حد ما لأن هذه لغة. قد يحتوي النص بأي طول على عناصر متعددة قد تكون صحيحة أو خاطئة أو مضللة. واجه باحثو OpenAI هذه العقبة في ورقة بحثية أخرى مبكرة من RLHF. للحصول على نموذجهم لتلخيص النص ، وجد الباحثون أن 60 بالمائة فقط من ملخصات النموذج كانت جيدة. "على عكس العديد من المهام في التعلم الآلي ، فإن استفساراتنا ليس لها أساس واضح ،"
عندما تقوم آنا بتقييم استجابات Sparrow ، يجب أن تنظر في دقتها وفائدتها وعدم ضررها ، مع التحقق أيضًا من أن النموذج لا يقدم مشورة طبية أو مالية ، أو يجسد نفسه ، أو ينتهك معايير أخرى. لكي تكون مفيدة كبيانات تدريبية ، يجب أن تكون ردود النموذج مرتبة كميًا: هل الروبوت الذي يمكنه أن يخبرك كيف تصنع قنبلة "أفضل" من الروبوت غير المؤذي الذي يرفض الإجابة على أي أسئلة؟
في ورقة DeepMind ، بينما كان صانعو Sparrow يتناوبون على كتابة التعليقات التوضيحية ، ناقش أربعة باحثين ما إذا كان الروبوت الخاص بهم قد وضع افتراضات حول جنس المستخدمين الذين لجأوا إليه للحصول على المشورة العاطفية. وفقًا لجيفري إيرفينغ ، عالم الأبحاث في DeepMind ، يعقد باحثو الشركة جلسات توضيحية أسبوعية حيث يراجعون البيانات بأنفسهم ويناقشون الحالات الغامضة. عندما تكون القضية صعبة بشكل خاص ، فإنهم يستشيرون خبراء في الأخلاق أو الموضوع.
غالبًا ما وجدت آنا أنه يتعين عليها الاختيار بين خيارين سيئين. "حتى لو كانت كلتاهما إجابات خاطئة بشكل فظيع ، ما زلت بحاجة إلى معرفة أيهما أفضل وتدوين النص لشرح السبب" ، كما تقول. في بعض الأحيان ، عندما لا تكون أي من الإجابات جيدة ، يتم تشجيعها على إعطاء الإجابة بنفسها. إجابة أفضل. تفعل هذا حوالي نصف الوقت أثناء التدريب.
06 تتطلب التعليقات مهارات وخبرات محددة بشكل متزايد
نظرًا لصعوبة جمع بيانات التعليقات ، يكون سعر البيع أعلى. هذا النوع من بيانات التفضيل الأساسية التي تجمعها Ana هي المبيعات بحوالي دولار واحد للقطعة ، وفقًا لأشخاص على دراية بالصناعة. ولكن إذا كنت ترغب في تدريب نموذج لإجراء بحث قانوني ، فأنت بحاجة إلى شخص لديه تدريب قانوني ، مما يؤدي إلى زيادة التكاليف. لن يكشف جميع المعنيين بالضبط عن المبلغ الذي دفعوه ، ولكن بشكل عام ، يمكن أن يكلف مثال مكتوب احترافي بضع مئات من الدولارات ، في حين أن تقدير الخبراء قد يكلف 50 دولارًا أو أكثر. كشف أحد المهندسين أنه دفع ذات مرة 300 دولار مقابل عينة من حوار سقراط.
لم تكشف OpenAI و Microsoft و Meta و Anthropic عن عدد الأشخاص الذين ساهموا في التعليقات التوضيحية لنماذجهم ، أو المبلغ الذي تم دفعه لهم ، أو مكان وجودهم في العالم. قال أوين من شركة DeepMind الشقيقة لـ Google إن المعلقين الذين يعملون في Sparrow يتقاضون رواتب لا تقل عن الحد الأدنى للأجور في الساعة ، اعتمادًا على مكان وجودهم. لا تعرف آنا "شيئًا" عن Remotasks ، لكنها تعرف المزيد عن Sparrow ، مع العلم أنها مساعد الذكاء الاصطناعي لـ DeepMind ، والذي دربه منشئوه باستخدام RLHF.
حتى وقت قريب ، كان من السهل نسبيًا اكتشاف المخرجات السيئة من نماذج اللغة ، والتي بدت مثل هراء. ولكن مع تحسن النماذج ، يصبح هذا الأمر أكثر صعوبة ، وهي مشكلة تُعرف باسم "الإشراف القابل للتطوير". أظهر استخدام Google لنماذج اللغة الحديثة في ظهور مساعد الذكاء الاصطناعي الخاص بها ، Bard ، عن غير قصد مدى صعوبة اكتشاف الأخطاء في نماذج اللغة الحديثة. يعني هذا المسار أن التعليقات التوضيحية تتطلب بشكل متزايد مهارات وخبرات محددة.
في العام الماضي ، كان رجل يدعى لويس يعمل في ميكانيك ترك ، وبعد الانتهاء من مهمة ، تلقى رسالة تدعوه للانضمام إلى منصة لم يسمع بها من قبل. إنه يسمى Taskup.ai ، والموقع بسيط جدًا ، مجرد خلفية بحرية مكتوب عليها "الدفع حسب الاستخدام". اختار لويس التسجيل.
أجر الوظيفة أفضل بكثير من أي وظيفة أخرى كان يعمل بها من قبل ، وعادة ما تكون حوالي 30 دولارًا في الساعة. ومع ذلك ، فهو أيضًا أكثر تحديًا ، حيث يتطلب تصميم سيناريوهات معقدة لخداع روبوتات المحادثة لإعطاء نصائح خطيرة ، واختبار قدرة النموذج على الحفاظ على شخصيته الخاصة ، والمشاركة في محادثات مفصلة حول موضوعات علمية عالية التقنية وتتطلب إجراء بحث مكثف. وجد لويس الوظيفة "مرضية ومثيرة". أثناء فحص نموذج ومحاولة ترميزه في بايثون ، كان لويس يتعلم. لا يستطيع العمل أكثر من 4 ساعات متواصلة خشية أن يصاب بالإرهاق العقلي ويخطئ ، ويريد الاحتفاظ بالوظيفة.
قال لويس: "إذا كان هناك أي شيء يمكنني تغييره ، فأنا أريد فقط معرفة المزيد عما يحدث على الطرف الآخر. نحن نعرف فقط ما نحتاجه لأداء المهمة ، ولكن إذا عرفت المزيد ، فربما يمكنني إنجاز المهمة . إنجاز أكبر ، وربما اعتبارها مهنة ".
أجرى المراسل الاستقصائي التكنولوجي زيزا مقابلات مع ثمانية أشخاص آخرين ، معظمهم في الولايات المتحدة ، ممن لديهم تجارب مماثلة في الإجابة على الاستطلاعات أو إكمال المهام على منصات أخرى ثم وجدوا أنفسهم وظفتهم Taskup.ai أو عدد قليل من المواقع المماثلة ، مثل DataAnnotation.tech أو Gethybrid.io. غالبًا ما يتضمن عملهم تدريب روبوتات المحادثة ، على الرغم من أن برامج الدردشة الخاصة بهم ذات جودة أعلى وأكثر تخصصًا في الغرض من المواقع الأخرى التي عملوا عليها. أحدهما عبارة عن ماكرو لجدول بيانات للعرض التقديمي ، والآخر يحتاج فقط إلى إجراء محادثة وتقييم الردود وفقًا للمعايير التي تريدها. غالبًا ما تطرح أسئلة روبوت الدردشة التي تظهر أيضًا عند الدردشة مع ابنتها البالغة من العمر 7 سنوات ، مثل "ما هو أكبر ديناصور؟" و "اكتب قصة عن نمر".
يبدو أن كل من Taskup.ai و DataAnnotation.tech و Gethybri.io ينتمون إلى نفس الشركة: Surge AI. لم يؤكد إدوين تشين ، الرئيس التنفيذي للشركة ، أو ينفي الاتصال ، لكنه كان على استعداد للتحدث عن شركته وكيف يرى تطور التعليقات التوضيحية.
يقول إدوين ، الذي أسس Surge AI في عام 2020 بعد العمل في أبحاث الذكاء الاصطناعي في Google و Facebook و Twitter ، "لقد شعرت دائمًا أن مجال وضع العلامات كان بسيطًا". قال إدوين: "نأمل أن يتمكن الذكاء الاصطناعي من إلقاء النكات ، أو كتابة نسخة تسويقية جيدة ، أو مساعدتي عندما أحتاج إلى علاج. ولكن لا يمكن للجميع قول النكات أو حل مشاكل برمجة بايثون. هذه العقلية منخفضة الجودة وقليلة المهارات تتحول إلى شيء أكثر ثراءً ويلتقط المهارات البشرية والإبداع والقيم التي نريد أن تمتلكها أنظمة الذكاء الاصطناعي. "
07 تعد أنظمة التعلم الآلي غريبة جدًا بحيث لا يمكن الوثوق بها تمامًا
في العام الماضي ، أعادت Surge AI تسمية مجموعة بيانات لتصنيف Google لمشاركات Reddit حسب المشاعر. جردت Google سياق كل منشور وأرسلته إلى المعلقين في الهند للتعليق. وجد موظفو الذكاء الاصطناعي المطلعون على ثقافة الإنترنت الأمريكية أن 30٪ من التعليقات التوضيحية كانت خاطئة. تم تصنيف منشورات مثل "Hell، my bro" على أنها "Hate" ، بينما تم تصنيف "Cool McDonald's ، المفضل لدي" على أنه "مفضل".
قال إدوين إن Surge AI يفحص مؤهلات المعلقين ، مثل ما إذا كان الأشخاص الذين يقومون بمهام الكتابة الإبداعية لديهم خبرة في الكتابة الإبداعية ، ولكن بالضبط كيف تجد الموظفين هو "سر". كما هو الحال مع Remotasks ، يجب على العمال عادة إكمال دورة تدريبية ، على الرغم من أنه على عكس Remotasks ، يمكن الدفع لهم مقابل القيام بالمهام أثناء التدريب. لقد سمح وجود عدد أقل من الموظفين المدربين بشكل أفضل وإنتاج بيانات عالية الجودة لشركة Surge AI بدفع أجور أفضل من نظرائها ، لكنه رفض الخوض في التفاصيل ، قائلاً فقط إن رواتب الموظفين "على مستوى عادل وأخلاقي". تربح هذه التعليقات التوضيحية ما بين 15 و 30 دولارًا في الساعة ، لكنها تمثل جزءًا صغيرًا من جميع المعلقين ، وهي مجموعة يبلغ عددها الآن 100000. وأوضح أن هذه السرية نابعة من طلب العميل.
يشمل عملاء Surge AI OpenAI و Google و Microsoft و Meta و Anthropic. يركز Surge AI على التعليقات والتعليقات التوضيحية اللغوية ، وبعد إطلاق ChatGPT ، تلقى عددًا كبيرًا من الطلبات ، قال إدوين: "اعتقدت أن الجميع يعرفون قوة RLHF ، لكنني أعتقد أن الناس لم يفهموها في قلوبهم."
هذه النماذج الجديدة مثيرة للإعجاب لدرجة أنها ألهمت موجة جديدة من التوقعات بأن التعليقات التوضيحية على وشك أن تصبح آلية. إن الضغط المالي للقيام بذلك مرتفع بالنظر إلى التكاليف المترتبة على ذلك. خطت Anthropic و Meta وغيرهما مؤخرًا خطوات واسعة في استخدام الذكاء الاصطناعي لتقليل مقدار التعليقات التوضيحية البشرية اللازمة لتوجيه النماذج ، وبدأ مطورون آخرون في استخدام GPT-4 لإنشاء بيانات التدريب.
ومع ذلك ، وجدت ورقة بحثية حديثة أن النماذج المدربة على GPT-4 قد تتعلم لتقليد أسلوب GPT الموثوق به بدقة أقل. حتى الآن ، عندما جعلت التحسينات التي تم إجراؤها على الذكاء الاصطناعي أحد أشكال الملصقات قديمة ، زادت الحاجة إلى أنواع أخرى أكثر تعقيدًا. أصبح النقاش علنيًا في وقت سابق من هذا العام عندما غرد الرئيس التنفيذي لشركة Scale AI بأنه توقع أن تنفق مختبرات الذكاء الاصطناعي قريبًا مليارات الدولارات على البيانات البشرية ، تمامًا كما كانوا يحسبون كما هو مذكور أعلاه. أجاب سام التمان ، الرئيس التنفيذي لشركة OpenAI ، أنه مع تقدم الذكاء الاصطناعي ، ستقل الحاجة إلى البيانات.
يشك إدوين في أن الذكاء الاصطناعي سيصل إلى نقطة حيث لم تعد هناك حاجة إلى ردود الفعل البشرية ، لكنه يرى أن وضع العلامات أصبح صعبًا بشكل متزايد مع تحسن النماذج. مثل العديد من الباحثين ، يعتقد أن الطريق إلى الأمام سيشمل أنظمة الذكاء الاصطناعي التي تساعد البشر في الإشراف على أنظمة الذكاء الاصطناعي الأخرى. دخلت Surge AI مؤخرًا في شراكة مع Anthropic لإثبات صحة المفهوم حيث يجيب المعلقون على أسئلة حول جزء طويل من النص بمساعدة مساعد ذكاء اصطناعي غير موثوق به ، حيث تنص النظرية على أن البشر يجب أن يشعروا بنقاط ضعف مساعد الذكاء الاصطناعي والتفكير التعاوني للعثور عليه الجواب الصحيح.
الاحتمال الآخر هو أن يناقش اثنان من الذكاء الاصطناعي بعضهما البعض ، بحيث يتخذ الإنسان الحكم النهائي. قال جون شولمان ، عالم أبحاث أوبن إيه آي في عرض تقديمي حديث في بيركلي: "لم نر الإمكانات العملية الحقيقية لهذا النوع من الأشياء حتى الآن ، لكنها بدأت تصبح ضرورية لأنه من الصعب على المعلقين مواكبة" تقدم النموذج ".
قال إدوين: "أعتقد أنك ستحتاج دائمًا إلى إنسان لمراقبة ما يفعله الذكاء الاصطناعي ، لمجرد أنه كائن فضائي. أنظمة التعلم الآلي غريبة جدًا بحيث لا يمكن الوثوق بها تمامًا. الأكثر إثارة للإعجاب اليوم بعض نماذجنا لديها نقاط ضعف تبدو غريبة جدًا للبشر. على الرغم من أن GPT-4 يمكن أن يولد نصًا معقدًا ومقنعًا ، إلا أنه لا يمكنه تحديد الكلمات التي تعتبر صفات ".
08 ChatGPT يساعد كثيرًا في تدفق المهام
مع اقتراب عام 2022 من نهايته ، بدأ جو يسمع من طلابه أن قوائم مهامهم كانت فارغة في كثير من الأحيان. ثم تلقى بريدًا إلكترونيًا يبلغه بأن معسكر التدريب في كينيا على وشك الإغلاق. واصل مهامه التدريبية عبر الإنترنت ، لكنه بدأ يقلق بشأن المستقبل. "
قال جو "هناك مؤشرات على أن هذا لن يكون هو الحال لفترة طويلة". عمل التعليقات التوضيحية على وشك مغادرة كينيا. من الزملاء الذين التقى بهم عبر الإنترنت ، سمع أن مثل هذه البعثات يتم إرسالها إلى نيبال والهند والفلبين قال جو: "تنتقل الشركات من منطقة إلى أخرى. ليس لديهم البنية التحتية محليًا ، لذلك لديهم المرونة للانتقال إلى حيث تكون تكاليف التشغيل أكثر فائدة لهم. "
تتمثل إحدى الطرق التي تختلف بها صناعة الذكاء الاصطناعي عن الهواتف المحمولة وصانعي السيارات في السيولة. يتغير هذا العمل باستمرار ، حيث يتم تشغيله تلقائيًا واستبداله بمتطلبات جديدة لأنواع جديدة من البيانات. إنه خط أنابيب ، ولكن يمكن إعادة تكوينه باستمرار وبسرعة ، حيث يتم نقل المهارات المناسبة وعرض النطاق الترددي وكشوف المرتبات.
في الآونة الأخيرة ، عادت الوظائف ذات الأجور الأعلى لمهام التعليقات التوضيحية إلى الولايات المتحدة. في مايو ، بدأ Scale AI بإدراج وظائف التعليقات التوضيحية على موقعه على الويب ، بحثًا عن أشخاص لديهم خبرة في كل مجال تقريبًا من المتوقع أن يتغلب عليه الذكاء الاصطناعي. بعض هذه القوائم من مدربي الذكاء الاصطناعي الذين لديهم تدريبات في اللياقة البدنية ، والموارد البشرية ، والتمويل ، والاقتصاد ، وعلوم البيانات ، والبرمجة ، وعلوم الكمبيوتر ، والكيمياء ، وعلم الأحياء ، والمحاسبة ، والضرائب ، والتغذية ، والفيزياء ، والسفر ، والتعليم K-12 ، والصحافة الرياضية والنفس. -مساعدة الخبرة.
يمكنك تعليم قانون الروبوتات وكسب 45 دولارًا في الساعة ؛ علمهم الشعر وكسب 25 دولارًا في الساعة. يسرد الموقع أيضًا عمليات التجنيد للأشخاص ذوي الخبرة الأمنية ، للمساعدة على الأرجح في تدريب الذكاء الاصطناعي العسكري. كشف Scale AI مؤخرًا عن نموذج للغة دفاعية يُدعى Donovan ، أطلق عليه المسؤولون التنفيذيون في الشركة "الذخيرة في حرب الذكاء الاصطناعي" ، وفازوا بعقد للعمل في برنامج المركبات القتالية الروبوتية للجيش.
لا تزال آنا تدرب روبوتات المحادثة في تكساس. تحول الزملاء إلى معلقين ومشرفين على Slack ، ولم تكن تعرف السبب ، لكنها أعطتها الأمل في أن تكون الوظيفة مهنة طويلة الأجل. وقالت إن الشيء الوحيد الذي لم تقلق بشأنه هو استبدال الوظائف بالأتمتة: "أعني ، يمكن لبرامج الدردشة الآلية القيام بالكثير من الأشياء المدهشة ، ولكن يمكنها أيضًا القيام ببعض الأشياء الغريبة حقًا."
عندما أتت شركة Remotasks إلى كينيا لأول مرة ، اعتقد جو أن التعليق التوضيحي قد يكون مهنة جيدة. كان مصممًا على مواصلة العمل حتى بعد انتقاله إلى مكان آخر. لقد استنتج أن هناك الآلاف من الأشخاص في نيروبي يعرفون كيفية القيام بهذا العمل. بعد كل شيء ، قام بتدريب الكثير من الناس. استأجر Joe مكتبًا في المدينة وبدأ في البحث عن عقود الاستعانة بمصادر خارجية: وظيفة تشرح مخططات لشركة إنشاءات ، وآخر توضيحيًا لفاكهة تالفة بسبب الحشرات لنوع من المشاريع الزراعية ، وأخرى للسيارات ذاتية القيادة. إجراءات وضع العلامات.
لكن وجد جو أن رؤيته كانت صعبة التحقيق. لديه الآن موظف واحد فقط بدوام كامل ، بعد أن كان يعمل من قبل. قال: "لم يكن لدينا تدفق ثابت للعمل". لم يكن هناك شيء نفعله لأسابيع لأن العملاء ما زالوا يجمعون البيانات. عندما انتهى العميل من جمع البيانات ، كان عليه إحضار مقاولين على المدى القصير للوفاء بالمواعيد النهائية: "لم يكن العميل مهتمًا إذا كان لدينا عمل مستمر. طالما تم تصنيف مجموعة البيانات ، فسيكون ذلك جيدًا."
من أجل عدم ترك مهاراتهم تضيع ، يقرر القائمون على أداء المهام الآخرين أين تذهب المهمة ، ويذهبون إلى هناك. يستأجرون خوادم بروكسي لإخفاء مواقعهم وشراء معرفات مزيفة لتجاوز الأمان حتى يتمكنوا من التظاهر بالعمل في سنغافورة أو هولندا أو ميسيسيبي أو في أي مكان تتدفق فيه المهمة. هذا عمل محفوف بالمخاطر. أصبح Scale AI عدوانيًا بشكل متزايد في تعليق الحسابات التي تبين أنها تخفي مواقعها ، وفقًا للعديد من الجهات الفاعلة في المهام. "
قال فيكتور "لقد أصبحنا أكثر ذكاءً قليلاً هذه الأيام لأننا لاحظنا أنهم في بلدان أخرى يدفعون رواتب جيدة". إنه يكسب ضعف العمل في ماليزيا مثل كينيا ، ولكن "عليك توخي الحذر".
وقال معلق كيني آخر إنه قرر عدم الالتزام بالقواعد بعد أن تم حظر حسابه لأسباب غامضة. الآن ، يدير حسابات متعددة في بلدان متعددة ، ويقوم بمهام يكون فيها العائد أعلى. بفضل ChatGPT ، يقول إنه يعمل بسرعة ولديه نقاط جودة عالية. ويقول إن الروبوت رائع ويسمح له بإكمال مهام بقيمة 10 دولارات في دقائق.
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
تبديد الغموض عن "العمال المهاجرين بالذكاء الاصطناعي" وراء ChatGPT: مملة ومتكررة ، تدفع بالقطعة ، أجور بالساعة منخفضة تصل إلى 1 دولار
** المصدر: ** Tencent Technology
الخلاصة: تصنف الحواشي البيانات البيانات وتسميها ، مما يسمح للذكاء الاصطناعي بالتعلم من خلال إيجاد أنماط في كميات كبيرة من البيانات ، وتعتبر بمثابة "عمالة شبحية" مخبأة خلف الجهاز. عمل التعليقات التوضيحية هو أساس الذكاء الاصطناعي ، وقد شكل سلسلة إمداد كاملة ، وسيستمر هذا النوع من العمل في الوجود لفترة طويلة.
ركز
يتعلم الذكاء الاصطناعي من خلال البحث عن أنماط في كميات كبيرة من البيانات ، ولكن يجب أولاً تصنيف هذه البيانات وتصنيفها من قبل البشر ، وظهور شروح البيانات.
عمل المعلقين ممل ومضجر ، وغالبًا ما يحتاجون إلى القيام بعمل متكرر ويتقاضون رواتبهم على أساس قطعة بقطعة ، ويتراوح متوسط الراتب في الساعة بين 5 و 10 دولارات أمريكية (حوالي 36 إلى 72 يوان). بحلول بداية هذا العام ، تم تخفيض الأجور بالساعة لبعض المعلقين إلى دولار واحد إلى 3 دولارات للساعة (حوالي 7 إلى 22 يوان).
لا تزال أعمال التعليقات التوضيحية هي أساس الذكاء الاصطناعي ، وقد شكلت سلسلة توريد كاملة. هذه الأنواع من الوظائف موجودة لتبقى لفترة طويلة قادمة.
تختلف أعمال التعليقات التوضيحية عن الهواتف الذكية وتصنيع السيارات من حيث سهولة تشوهها وانسيابها ، وغالبًا ما تتدفق إلى أماكن ذات تكاليف تشغيل أقل.
ثم ، في عام 2019 ، برزت فرصة أمامه ، وبدأ جو في تدريب المجندين لشركة جديدة كانت في حاجة ماسة إلى المعلقين ، وكسبوا أربعة أضعاف هذا المبلغ. كل أسبوعين ، يصطف 50 موظفًا جديدًا لدخول مبنى إداري في نيروبي لبدء تدريبهم المهني. تبدو الحاجة إلى الشروح لا نهاية لها. سيُطلب منهم تصنيف الملابس التي يرونها في صورة شخصية في المرآة ، وتحديد الغرفة التي يتواجدون فيها من خلال عيون مكنسة كهربائية آلية ، ورسم مربعات حول دراجة نارية تم مسحها ضوئيًا بواسطة الليدار. عادة ما يترك أكثر من نصف طلاب جو الدراسة قبل انتهاء التدريب. وأوضح بلطف أن "بعض الناس لا يعرفون كيفية البقاء في مكان واحد لفترة طويلة". بالإضافة إلى أنه يعترف بأن "الوظيفة مملة".
لكنها وظيفة جيدة في مكان تندر فيه الوظائف ، وقد أنتج جو المئات من الخريجين. بعد التدريب ، يمكن للمتدربين العودة إلى المنزل والعمل بمفردهم في غرف نومهم ومطابخهم دون إخبار أي شخص بما يفعلونه. هذه ليست المشكلة الحقيقية لأنهم لا يفهمون حتى ما يفعلونه.
يعد تصنيف الأشياء للسيارات ذاتية القيادة أمرًا سهلاً ، ولكن تصنيف قصاصات الحوار المشوهة وتحديد ما إذا كان المتحدث روبوتًا أو إنسانًا محفوف بالتحديات. كل كائن التعرف هو جزء صغير من مشروع أكبر ، لذلك من الصعب تحديد ما الذي يقومون بتدريب الذكاء الاصطناعي على فعله بالضبط. لا توفر أسماء هذه الكائنات أيضًا أي أدلة ، فإن Crab Generation و Whale Segment و Woodland Gyro و Pillbox Bratwurst كلها رموز وظيفية بدون أي ترتيب منطقي.
أما بالنسبة للشركة التي وظفتهم ، فإن معظم الناس يعرفون ذلك باسم Remotasks ، وهو موقع ويب يوفر فرص عمل لأي شخص يتحدث الإنجليزية بطلاقة. مثل معظم المعلقين ، لم يكن جو يعرف أن Remotasks كانت شركة عمل تعاقدية مملوكة لشركة Scale AI. Scale AI هو مزود بيانات Silicon Valley بمليارات الدولارات ومن عملائه شركة OpenAI للذكاء الاصطناعي والجيش الأمريكي. لا يذكر كل من Remotasks ولا Scale AI بعضهما البعض على مواقع الويب الخاصة بهما.
01 مساعدة الآلات ذات القدرات البشرية الفريدة
ركز الكثير من ردود الفعل العامة على نماذج اللغات الكبيرة مثل ChatGPT من OpenAI على العمل الذي يبدو أنهم مستعدون لأتمتة. ولكن حتى أكثر أنظمة الذكاء الاصطناعي إثارة للإعجاب يحتاج إلى مساعدة من البشر ، الذين يدربونه عن طريق تصنيف البيانات والتدخل عند اختلاطها. يمكن فقط لتلك الشركات التي يمكنها تحمل تكلفة شراء البيانات التنافس في الصناعة ، وتلك التي تحصل على البيانات ستبذل جهودًا كبيرة لإبقائها سرية. والنتيجة هي أننا ، باستثناء عدد قليل من الناس ، نعرف القليل جدًا عن المعلومات التي تؤثر على سلوك هذه الأنظمة ، وحتى أقل عن الأشخاص الذين يقفون وراء السلوك الذي يشكلها.
بالنسبة لطلاب جو ، إنها وظيفة مجردة من كل مظاهر الحياة الطبيعية: من المتوقع أن يلتزموا بجدول زمني صارم ولا يحتاجون إلى معرفة ما يفعلونه أو من يعملون من أجله. في الواقع ، نادراً ما يطلقون على أنفسهم اسم العمل ، مجرد "مهام" روتينية. يسمون أنفسهم عمال المهام.
عرّف عالم الأنثروبولوجيا ديفيد جريبر ما يسمى بـ "الأعمال الهراء" - الوظائف التي ليس لها معنى أو غرض. هذه وظائف يجب أن تتم أتمتتها ، ولكنها ليست كذلك ، لأسباب تتعلق بالبيروقراطية أو الوضع أو القصور الذاتي. تتشابه وظيفة تدريب الذكاء الاصطناعي: فالوظائف التي يرغب الناس في أتمتة ، تُعتبر عمومًا مؤتمتة ، لكنها لا تزال تتطلب مشاركة البشر. هذه المهام لها أغراض خاصة ، لكن أصحاب التعليقات التوضيحية ليسوا على علم بها.
بدأ ازدهار الذكاء الاصطناعي الحالي بهذا العمل الشاق والمتكرر. في وقت مبكر من عام 2007 ، اشتبهت Fei-Fei Li ، وهي باحثة في الذكاء الاصطناعي وأستاذة في جامعة برينستون ، في أن مفتاح تحسين الشبكات العصبية للتعرف على الصور هو التدريب على المزيد من البيانات ، مما يتطلب ملايين الصور المصنفة بدلاً من عشرات الآلاف. المشكلة هي أن فريقها كان سيستغرق عقودًا وملايين الدولارات لوضع علامة على هذه الصور العديدة.
وجدت Fei-Fei Li الآلاف من العمال في منصة التعهيد الجماعي في Amazon ، الميكانيكية Turk ، حيث يقوم الناس حول العالم بإنجاز مهام صغيرة مقابل تكلفة زهيدة. مكنت مجموعة البيانات الناتجة التي تحمل اسم ImageNet ، والمعروفة باسم ImageNet ، من تحقيق تقدم كبير في التعلم الآلي ، مما أدى إلى تنشيط المجال وإدخال التقدم في العقد الماضي.
تظل التعليقات التوضيحية جزءًا أساسيًا من تطوير الذكاء الاصطناعي ، ولكن غالبًا ما يشعر المهندسون أنه شرط مسبق سريع ومرهق لعمل النمذجة الأكثر روعة. يمكنك جمع أكبر قدر ممكن من البيانات المصنفة بتكلفة زهيدة لتدريب نموذجك الخاص ، وإذا كان بإمكانك القيام بذلك ، على الأقل من الناحية النظرية ، فلن تحتاج إلى تعليقات توضيحية بعد الآن. ومع ذلك ، لا يتم عمل التعليقات التوضيحية حقًا. يجادل الباحثون بأن أنظمة التعلم الآلي "هشة" وعرضة للفشل عند مواجهة أشياء في بيانات التدريب لم يتم شرحها بشكل جيد. تُعرف هذه الإخفاقات باسم "حالات الحافة" ويمكن أن يكون لها عواقب وخيمة.
في عام 2018 ، قتلت سيارة اختبارية ذاتية القيادة من شركة أوبر ، امرأة لأنها ، على الرغم من كونها مبرمجة لتجنب راكبي الدراجات والمشاة ، لم تكن تعرف ماذا تفعل مع راكبي الدراجات الذين يعبرون الشارع. الناس. نظرًا لأن المزيد من أنظمة الذكاء الاصطناعي تقدم المشورة القانونية والمساعدة الطبية ، فإن الحالات الأكثر خطورة التي يواجهونها تتطلب المزيد من البشر لفرزها. وقد أدى ذلك إلى نشوء صناعة عالمية لأشخاص مثل جو يستخدمون قدراتهم البشرية الفريدة لمساعدة الآلات.
على مدار الأشهر الستة الماضية ، تحدث المراسل الاستقصائي التكنولوجي جوش دزيزا إلى أكثر من عشرين من المعلقين التوضيحيين من جميع أنحاء العالم ، وكثير منهم يدربون روبوتات محادثة متطورة ، ولكن أيضًا العديد منهم يقومون بالعمل البدني العادي المطلوب للحفاظ على تشغيل الذكاء الاصطناعي. . قام البعض بفهرسة المحتوى العاطفي لمقاطع فيديو TikTok ، وأشكال جديدة من البريد العشوائي ، والإعلانات غير المناسبة عبر الإنترنت. يبحث الآخرون في معاملات بطاقات الائتمان ومعرفة أنواع المشتريات المرتبطة بها ، أو يبحثون في توصيات التجارة الإلكترونية ويقررون ما إذا كنت ستحب هذا القميص بالفعل بعد شراء قميص آخر.
يصحح البشر أخطاء روبوتات المحادثة لخدمة العملاء ، ويستمعون إلى طلبات المساعد الذكي من أمازون Alexa ، ويصنفون مشاعر الناس في مكالمات الفيديو. إنهم يصنفون الطعام بحيث لا يتم الخلط بين الثلاجات الذكية من خلال التغليف الجديد ، ويفحصون الكاميرات الأمنية الآلية قبل دق ناقوس الخطر ، ويساعدون الجرارات المستقلة المشوشة في تحديد الذرة.
02 التعليقات من الشركات الكبرى ، ولدت "أصغر ملياردير عصامي"
قال سونام جيندال ، مدير البرامج والأبحاث في منظمة الشراكة غير الربحية حول الذكاء الاصطناعي: "إنها سلسلة توريد كاملة. التصور العام في الصناعة هو أن هذا العمل ليس جزءًا مهمًا من تطوير التكنولوجيا ، إنه ليس جزءًا مهمًا من تطور التكنولوجيا. "ستزدهر لفترة طويلة. ينتشر كل الإثارة حول بناء الذكاء الاصطناعي ، وبمجرد بنائه ، لم تعد هناك حاجة إلى التعليقات التوضيحية ، فلماذا نفكر في ذلك؟ لكن تسمية البيانات هي أساس الذكاء الاصطناعي ، تمامًا مثل البشر بقدر ما يمثل الذكاء أساس الذكاء الاصطناعي ، فنحن بحاجة إلى النظر إلى هذه الوظائف على أنها وظائف حقيقية في اقتصاد الذكاء الاصطناعي ، وهي موجودة لتبقى لفترة طويلة قادمة ".
يأتي بائعو البيانات وراء الأسماء المألوفة مثل OpenAI و Google و Microsoft بأشكال مختلفة. هناك أيضًا شركات تعهيد خاصة لها مكاتب شبيهة بمراكز الاتصال ، مثل CloudFactory في كينيا ونيبال ، حيث يقوم Joe بعمل التعليقات التوضيحية مقابل 1.20 دولار في الساعة قبل التبديل إلى Remotasks.
هناك أيضًا مواقع "عمل جماعي" مثل Mechanical Turk و Clickworker ، حيث يمكن لأي شخص الاشتراك لإكمال المهام. في المنتصف توجد خدمات مثل Scale AI. يمكن لأي شخص التسجيل ، ولكن يجب على الجميع اجتياز اختبار مؤهل ودورة تدريبية ومراقبة الأداء. التعليقات التوضيحية هي عمل كبير. تأسست شركة Scale AI في عام 2016 على يد ألكسندر وانغ البالغ من العمر 19 عامًا ، وبلغت قيمتها 7.3 مليار دولار في عام 2021 ، مما جعله واحدًا من أصغر المليارديرات في مجلة فوربس.
بالنظر إلى هذا ، لا توجد طريقة لإعطاء تقديرات مفصلة لعدد الأشخاص الذين يعملون في التعليقات التوضيحية ، ولكن ما هو مؤكد هو أن هناك الكثير وينمو بسرعة. نشرت Google Research مؤخرًا ورقة تقدم تقديرات غامضة لعدد المعلقين بـ "الملايين" وربما "المليارات" في المستقبل.
غالبًا ما تأتي الأتمتة بطرق غير متوقعة. يتذكر إريك دوهيمي ، الرئيس التنفيذي لشركة Centaur Labs ، وهي شركة توضيحي للبيانات الطبية ، أنه قبل بضع سنوات ، توقع العديد من مهندسي التعلم الآلي البارزين أن الذكاء الاصطناعي سيحل محل أخصائيي الأشعة. عندما لا يحدث ذلك ، تتحول الحكمة التقليدية إلى أخصائيي الأشعة الذين يستخدمون الذكاء الاصطناعي كأداة.
وفقًا لدوهيم ، لم يحدث أي من هذين الأمرين. الذكاء الاصطناعي جيد جدًا في مهام محددة ، مما يدفع إلى تقسيم العمل وتخصيصه لأنظمة خوارزمية متخصصة وبشر متخصصين على حد سواء. على سبيل المثال ، قال ، قد يكون نظام الذكاء الاصطناعي قادرًا على اكتشاف السرطان ، ولكن فقط في أنواع معينة من الأجهزة ، في أنواع معينة من الصور. لذا ، فأنت بحاجة إلى شخص ما للمساعدة في التحقق من أن الذكاء الاصطناعي يتم تغذيته بالنوع الصحيح من البيانات ، وربما شخص آخر للتحقق من أنه يعمل قبل تسليمه إلى ذكاء اصطناعي آخر لكتابة تقرير وأخيراً إلى الإنسان. قال دوهيم: "لن يحل الذكاء الاصطناعي محل الوظائف البشرية ، لكنه يغير طريقة تنظيم الوظائف".
إذا كنت تعتقد أن الذكاء الاصطناعي هو آلة تفكير ذكية ، فقد تتجاهل البشر الذين يقفون وراءه. يعتقد دو هيمي أن تأثير الذكاء الاصطناعي على العمل الحديث يشبه الانتقال من الحرفيين إلى التصنيع الصناعي: يتم تقسيم العمليات المتماسكة إلى مهام صغيرة ، يتم ترتيبها على طول خط التجميع ، ويتم إكمال بعض الخطوات بواسطة الآلات ، وبعضها بواسطة البشر ، تختلف عن سابقاتها ، والوضع مختلف تمامًا.
غالبًا ما يتم مواجهة المخاوف بشأن اضطراب الذكاء الاصطناعي بالقول إن الذكاء الاصطناعي يقوم بأتمتة مهام معينة ، وليس وظائف كاملة. غالبًا ما تكون هذه المهام مملة ومملة ، مما يترك الناس لمتابعة عمل إنساني أكثر إرضاءً. ولكن من الممكن أيضًا أن يبدو صعود الذكاء الاصطناعي مثل تقنيات توفير العمالة في الماضي ، ربما مثل الهاتف أو الآلة الكاتبة ، والتي تقضي على الكدح الناتج عن تمرير الرسائل والكتابة اليدوية ، ولكنها تولد المزيد من المعلومات حول الاتصالات والتجارة و الأعمال الورقية: لدرجة أن هناك حاجة إلى مكتب جديد به أنواع جديدة من العمال ، والموظفين ، والمحاسبين ، والكتاب على الآلة الكاتبة ، وما إلى ذلك ، لإدارتها. قد لا تفقد وظيفتك عندما ينضم الذكاء الاصطناعي إلى وظيفتك ، لكنها قد تصبح أكثر غرابة وعزلة ومملة.
03 تبسيط الواقع المعقد إلى شيء يمكن للآلة قراءته
في وقت سابق من هذا العام ، اشتركت الصحفية زيادة في وظيفة مع Remotasks. العملية بسيطة. ما عليك سوى إدخال مواصفات الكمبيوتر وسرعة الشبكة ومعلومات الاتصال الأساسية للدخول إلى "مركز التدريب". للحصول على مهام مدفوعة الأجر ، كان على Ziyeza أولاً إكمال الدورات التمهيدية ذات الصلة ، ولكن غير مدفوعة الأجر. عرض مركز التدريب سلسلة من الدروس بأسماء غير مفهومة مثل Glue Swimsuits و Poster Hawaii. نقرت Zieza على شيء يسمى GFD Chunking ، والذي يدعو إلى وضع علامة على الملابس في صور وسائل التواصل الاجتماعي.
علاوة على ذلك ، هناك تعليمات لمهام مثل الاضطرار إلى تصنيف العناصر الحقيقية ، والتي يمكن للبشر ارتدائها ، أو التي يقصد أن يرتديها أشخاص حقيقيون. واثقًا في قدرته على تمييز الملابس الحقيقية التي يمكن أن يرتديها الأشخاص الحقيقيون من الملابس المزيفة التي لا يستطيع الأشخاص الحقيقيون ارتداءها ، شرع زيزا في اختبارها. ومع ذلك ، فقد أصيب على الفور على رأسه: أعطى الكمبيوتر صورة في مجلة لامرأة ترتدي تنورة. هل يجب اعتبار صور الملابس ملابس حقيقية؟ اعتقدت زيادة ، لا ، لأن الناس لا يمكنهم ارتداء صور الملابس. النتيجة تظهر خطأ! لأنه في عيون الذكاء الاصطناعي ، صور الملابس الحقيقية تعادل الملابس الحقيقية.
الصورة التالية لامرأة تلتقط صورة سيلفي في مرآة كاملة الطول في غرفة نوم مضاءة بشكل خافت. القميص والشورت الذي ترتديه ملابس حقيقية وهل انعكاس الملابس حقيقي؟ كما أعطى زيزا إجابة سلبية ، لكن نظام الذكاء الاصطناعي يعتقد أن انعكاس الملابس الحقيقية يجب أن يكون أيضًا ملابس حقيقية.
قال ميلاغروس ميكيلي ، الباحث الذي يعمل على البيانات في معهد Weizenbaum في ألمانيا ، إن هناك ارتباكًا واسع النطاق في جميع أنحاء الصناعة. يعد هذا جزئيًا نتاجًا للطريقة التي تتعلم بها أنظمة التعلم الآلي. يحتاج البشر فقط إلى بعض الأمثلة لفهم مفهوم "القميص" ، بينما تحتاج برامج التعلم الآلي إلى آلاف الأمثلة ، وهم بحاجة إلى القيام بذلك باتساق تام وتنوع كافٍ (قمصان بولو ، قمصان للارتداء في الهواء الطلق ، قمصان معلقة على رف) حتى يتمكن النظام من التعامل مع التنوع في العالم الحقيقي. قال ميسيلي: "تخيل أننا بحاجة إلى تقليص الواقع المعقد إلى شيء تستطيع الآلات الخرقاء قراءته".
بالنسبة للآلات ، يقدم فعل تبسيط الواقع تعقيدًا هائلاً. يجب أن يأتي كتاب التعليمات بقواعد تسمح للبشر بتصنيف العالم باتساق تام. للقيام بذلك ، غالبًا ما ينشئون فئات لا يستخدمها البشر. إذا طُلب من شخص ما أن يقوم بتسمية جميع القمصان الموجودة في صورة ما ، فقد لا يقوم بتسمية القمصان في المرآة لأنهم يعلمون أنها انعكاسات وليست ملابس فعلية. لكن بالنسبة للذكاء الاصطناعي الذي لا يفهم العالم الحقيقي ، فهو مجرد بكسلات ، وهما متماثلان تمامًا. إذا تم تمييز بعض القمصان في مجموعة البيانات ولم تكن القمصان المنعكسة أخرى غير موجودة ، فلن يعمل النموذج. لذلك عاد المهندس إلى المورد بمعلومات محدثة وطلب تسمية القميص الذي انعكس في المرآة. قريبًا ، سيكون لديك دليل آخر من 43 صفحة ، كلها بأحرف كبيرة حمراء.
عادةً ما تكون وظيفة المعلق هو وضع الفهم البشري جانبًا واتباع التعليمات بدقة شديدة. كما قال أحد المعلقين ، فكر كإنسان آلي. إنها مساحة عقلية غريبة حيث تبذل قصارى جهدك لاتباع قواعد سخيفة ولكنها صارمة ، مثل إجراء اختبار قياسي أثناء تناول المواد المهلوسة. دائمًا ما يكون لدى المعلقين أسئلة محيرة مثل ، هل هذا قميص أحمر مع شريط أبيض أم أنه قميص أبيض مع شريط أحمر؟ إذا كان وعاء من الخيزران مملوءًا بالتفاح ، فهل هو "وعاء زخرفي"؟ ما هو لون طباعة الفهد؟ يجب الإجابة على كل سؤال ، وقد يؤدي تخمين واحد خاطئ إلى منعك وبدء مهمة جديدة تمامًا ومختلفة تمامًا بقواعدها المحيرة.
04 ادفع لكل قطعة ، تحقق من المهمة كل ثلاث ساعات
يتم دفع معظم الوظائف في "المهام عن بعد" على أساس قطعة تلو الأخرى ، وتتراوح الأرباح من بضعة سنتات إلى بضعة دولارات مقابل مهمة ما. نظرًا لأن المهام قد تستغرق ثوانٍ أو ساعات لإكمالها ، فمن الصعب التنبؤ بالرواتب. عندما أتت شركة Remotasks إلى كينيا لأول مرة ، قال المعلقون إنها دفعت جيدًا نسبيًا. يتراوح ذلك في المتوسط بين 5 دولارات و 10 دولارات للساعة ، اعتمادًا على المهمة. لكن بمرور الوقت ينخفض الراتب.
الشكوى الأكثر شيوعًا حول العمل عن بُعد هي تنوعه. هذا النوع من العمل مستقر بما يكفي ليكون وظيفة طويلة الأمد بدوام كامل ، ولكن لا يمكن التنبؤ به كثيرًا بحيث لا يمكن الاعتماد عليه بالكامل. يقضي المعلقون ساعات في قراءة التعليمات واستكمال التدريب المجاني فقط لإكمال عشرات المهام قبل انتهاء المشروع. قد لا تكون هناك مهام جديدة لبضعة أيام ، وبعد ذلك ، فجأة ، تنبثق مهمة مختلفة تمامًا ، ربما لساعات إلى أسابيع. قد تكون أي مهمة هي الأخيرة ، ولا يعرفون أبدًا متى ستأتي المهمة التالية.
يقول المهندسون وموردو البيانات إن دورة الازدهار والكساد هذه تنبع من وتيرة تطوير الذكاء الاصطناعي. يتطلب تدريب نموذج كبير الكثير من التعليقات التوضيحية ، متبوعة بمزيد من التحديثات المتكررة ، ويريد المهندسون حدوث كل هذا في أسرع وقت ممكن حتى يتمكنوا من الوفاء بتاريخ الإصدار المستهدف. قد يحتاجون إلى الآلاف من المعلقين على مدار بضعة أشهر ، ثم ينخفضون إلى بضع مئات ، وأخيراً فقط عشرات الخبراء من نوع معين. تتكرر هذه العملية أحيانًا في دورات. "السؤال هو ، من يتحمل تكلفة هذه التقلبات؟" قالت الشراكة على Jindal للذكاء الاصطناعي.
لكي تكون ناجحًا ، يجب أن يعمل المعلقون معًا. بدأ فيكتور العمل في Remotasks عندما كان طالبًا جامعيًا في نيروبي ، وعندما قيل له إنه يواجه مشكلة في مهمة مراقبة حركة المرور ، قال إن الجميع يعرف أن يبتعد عن هذه المهمة: صعب للغاية ، وأجر ضعيف ، ولا يستحق ذلك. مثل العديد من المعلقين ، يستخدم فيكتور مجموعة WhatsApp غير رسمية لنشر الكلمة عند ظهور مهام جيدة. عندما أتى بفكرة جديدة ، كان سيبدأ اجتماعًا مرتجلًا في Google ليوضح للآخرين كيفية القيام بذلك. يمكن لأي شخص الانضمام والعمل معًا لفترة من الوقت ومشاركة النصائح. قال: "لقد طورنا ثقافة مساعدة بعضنا البعض لأننا نعلم أن شخصًا واحدًا لا يعرف كل الحيل".
يحتاج المعلقون دائمًا إلى توخي الحذر ، حيث تظهر الوظائف وتختفي دون سابق إنذار. وجد فيكتور أن العناصر غالبًا ما تظهر في منتصف الليل ، لذلك اعتاد الاستيقاظ كل ثلاث ساعات أو نحو ذلك لفحصها. عندما تكون هناك مهمة ، سيبقى دائمًا مستيقظًا. في وقت من الأوقات ، ذهب 36 ساعة دون نوم ، ووضع علامات على المرفقين والركبتين والرؤوس في الصور الجماعية ، على الرغم من أنه لم يكن يعرف السبب. مرة أخرى ، بقي مستيقظًا لفترة طويلة لدرجة أن عينيه كانتا حمراء ومنتفخة.
غالبًا ما يعرف المعلقون أنهم يدربون أنظمة الذكاء الاصطناعي للشركات في أماكن أخرى ، ولكن في بعض الأحيان يتلاشى حجاب إخفاء الهوية وهناك الكثير من الإشارات للعلامات التجارية أو روبوتات المحادثة المذكورة في التعليمات. قال أحد المعلقين: "قرأت التعليمات ، بحثت في غوغل واكتشفت أنني أعمل لدى ملياردير يبلغ من العمر 25 عامًا. إذا جعلت شخصًا مليارديرًا وجني بضعة دولارات ، فأنا حرفياً أضيع حياتي".
بدأ فيكتور ، الذي يصف نفسه بأنه "مؤمن جامح" بالذكاء الاصطناعي ، بعمل التعليقات التوضيحية لأنه أراد المساعدة في تحقيق مستقبل مؤتمت بالكامل. لكن في وقت سابق من هذا العام ، نشر شخص ما قصة في مجلة Time في مجموعة WhatsApp الخاصة به حول كيفية دفع الموظفين في مزود Sama AI أقل من 2 دولار في الساعة لتدريب ChatGPT على تحديد المحتوى السام. قال فيكتور ، الذي لم يكن يعلم بالعلاقة بين Remotasks و Scale AI حتى تم إخباره عنها: "الناس غاضبون لأن هذه الشركات مربحة للغاية وتدفع القليل جدًا". كانت التعليمات الخاصة بإحدى المهام التي عمل عليها مطابقة تقريبًا لتلك التي استخدمها OpenAI ، مما يعني أنه ربما كان يتدرب أيضًا على ChatGPT ، مقابل حوالي 3 دولارات في الساعة. "
وأتذكر أن أحدهم نشر أنه سيتم تذكرنا في المستقبل "، أجاب صفر:" لقد عوملنا أسوأ من المشاة. لن نتذكر في أي مكان في المستقبل ، وأنا أتذكر ذلك جيدًا. لن يتعرف أحد على العمل الذي نقوم به والجهود التي نبذلها. "
تحديد الملابس وتصنيف محادثات خدمة العملاء ليست سوى عدد قليل من وظائف التعليقات التوضيحية. في الآونة الأخيرة ، فإن أكثر الأشياء إثارة في السوق هي برامج chatbot. نظرًا لأنه يتطلب خبرة خاصة بالمجال أو طلاقة في اللغة ، وتميل الرواتب إلى التعديل حسب المنطقة ، تميل الوظيفة إلى دفع المزيد. يمكن أن تحقق أنواع معينة من التعليقات التوضيحية المهنية ما يصل إلى 50 دولارًا أو أكثر في الساعة.
عندما كانت امرأة تدعى آنا تبحث عن وظيفة في تكساس ، صادفت قائمة وظائف عامة عبر الإنترنت وتقدمت بطلب. بعد اجتياز امتحان تمهيدي ، دخلت غرفة Slack التي تضم 1500 شخصًا يتدربون على مشروع يسمى Dolphin ، والذي اكتشفت لاحقًا أنه chatbot الخاص بـ Google DeepMind Sparrow ، وهو أحد برامج الدردشة العديدة التي تتنافس مع ChatGPT واحد. وظيفة آنا هي الدردشة مع Sparrow طوال اليوم ، والراتب في الساعة حوالي 14 دولارًا ، بالإضافة إلى مكافأة كفاءة العمل العالية ، "هذا بالتأكيد أفضل من العمل في السوبر ماركت المحلي لكسب 10 دولارات في الساعة."
05 يستجيب الذكاء الاصطناعي لثلاثة معايير: الدقة والفائدة وعدم الإضرار
وآنا تحب الوظيفة. لقد ناقشت الخيال العلمي والمفارقات الرياضية وألغاز الأطفال والبرامج التلفزيونية مع سبارو. في بعض الأحيان ، تجعلها إجابات روبوت الدردشة تضحك بصوت عالٍ. في بعض الأحيان ، تشعر أيضًا بأنها عاجزة عن الكلام. قالت آنا: "في بعض الأحيان ، لا أعرف حقًا ماذا أسأل ، لذلك لديّ دفتر ملاحظات صغير به صفحتان بالفعل. أنا في Google موضوعات مثيرة للاهتمام ، لذلك أعتقد أنه يمكنني القيام بعمل جيد. تعامل مع سبع ساعات ، وهذا ليس هو الحال دائمًا ".
في كل مرة تطلب فيها Anna من Sparrow ، فإنها تقدم إجابتين ، وتختار أفضل إجابتين ، مما يؤدي إلى إنشاء ما يسمى "بيانات ردود الفعل البشرية". عندما ظهر ChatGPT في أواخر العام الماضي ، كان الفضل في أسلوب المحادثة الطبيعي المثير للإعجاب إلى حقيقة أنه تم تدريبه على كميات هائلة من بيانات الإنترنت. لكن اللغة التي تشغل ChatGPT ومنافسيها تمت تصفيتها من خلال عدة جولات من التعليقات التوضيحية البشرية.
كتب فريق من المقاولين أمثلة عن الكيفية التي أراد بها المهندسون أن يتصرف روبوت المحادثة ، وطرحوا الأسئلة ثم قدموا الإجابات الصحيحة ، ووصف برامج الكمبيوتر ، ثم أعطوا الرموز الوظيفية ، وطلبوا نصائح جنائية ، ثم رفضوا بأدب. بعد تدريب النموذج على هذه الأمثلة ، يتم تقديم المزيد من المقاولين للمطالبة به وترتيب ردوده. هذا ما فعلته آنا لسبارو.
تباينت بالضبط المعايير التي طُلب من المقيمين استخدامها ، مثل الصدق أو المساعدة أو التفضيل الشخصي فقط. النقطة المهمة هي أنهم ينشئون بيانات حول الذوق البشري ، وبمجرد توفر البيانات الكافية ، يمكن للمهندسين تدريب نموذج ثانٍ لتقليد تفضيلاتهم على نطاق واسع ، وأتمتة عملية التصنيف وتدريب الذكاء الاصطناعي على التعرف على طريقة الذوق البشري في التصرف. والنتيجة هي روبوت شبيه بالبشر يرفض بشكل أساسي الطلبات الضارة ويفسر طبيعة الذكاء الاصطناعي بطريقة تبدو وكأنها مدركة لذاتها.
بعبارة أخرى ، يبدو ChatGPT بشريًا لأنه تم تدريبه من قبل ذكاء اصطناعي يحاكي الإنسان ويتصرف مثل الإنسان.
قد يتسبب هذا في قيام النموذج باستخراج أنماط من أجزاء من خريطة لغته تم تمييزها على أنها دقيقة وإنتاج نص يتطابق مع الحقيقة ، ولكنه قد يتسبب أيضًا في تقليد الأسلوب الواثق والمصطلحات الخاصة بالنص الدقيق أثناء كتابة شيء خاطئ تمامًا . ليس هناك ما يضمن أن النص الذي تم تحديده على أنه دقيق بواسطة التعليقات التوضيحية دقيق بالفعل. حتى لو كانت دقيقة ، فليس هناك ما يضمن أن النموذج قد تعلم النمط الصحيح منه.
هذه الديناميكية تجعل كتابة التعليقات التوضيحية على روبوتات المحادثة أمرًا صعبًا. يجب أن يكون صارمًا ومتسقًا ، لأن التغذية المرتدة غير المتقنة ، مثل تمييز المواد ذات الصوت الصحيح على أنها دقيقة ، يمكن أن تجعل النموذج المدرَّب أكثر إقناعًا. استخدم OpenAI و DeepMind RLHF في مشروع مشترك سابق ، في هذه الحالة ، لتدريب يد روبوتية افتراضية على الإمساك بجسم ما ، والذي تبين أيضًا أنه يقوم بتدريب اليد الروبوتية على الوضع والتأرجح حول الكائن بين الكائن ومُقيِّمه ، وهذا بالطريقة التي ستظهر فقط للمشرفين عليها من البشر.
دائمًا ما يكون ترتيب إجابات نموذج اللغة شخصيًا إلى حد ما لأن هذه لغة. قد يحتوي النص بأي طول على عناصر متعددة قد تكون صحيحة أو خاطئة أو مضللة. واجه باحثو OpenAI هذه العقبة في ورقة بحثية أخرى مبكرة من RLHF. للحصول على نموذجهم لتلخيص النص ، وجد الباحثون أن 60 بالمائة فقط من ملخصات النموذج كانت جيدة. "على عكس العديد من المهام في التعلم الآلي ، فإن استفساراتنا ليس لها أساس واضح ،"
عندما تقوم آنا بتقييم استجابات Sparrow ، يجب أن تنظر في دقتها وفائدتها وعدم ضررها ، مع التحقق أيضًا من أن النموذج لا يقدم مشورة طبية أو مالية ، أو يجسد نفسه ، أو ينتهك معايير أخرى. لكي تكون مفيدة كبيانات تدريبية ، يجب أن تكون ردود النموذج مرتبة كميًا: هل الروبوت الذي يمكنه أن يخبرك كيف تصنع قنبلة "أفضل" من الروبوت غير المؤذي الذي يرفض الإجابة على أي أسئلة؟
في ورقة DeepMind ، بينما كان صانعو Sparrow يتناوبون على كتابة التعليقات التوضيحية ، ناقش أربعة باحثين ما إذا كان الروبوت الخاص بهم قد وضع افتراضات حول جنس المستخدمين الذين لجأوا إليه للحصول على المشورة العاطفية. وفقًا لجيفري إيرفينغ ، عالم الأبحاث في DeepMind ، يعقد باحثو الشركة جلسات توضيحية أسبوعية حيث يراجعون البيانات بأنفسهم ويناقشون الحالات الغامضة. عندما تكون القضية صعبة بشكل خاص ، فإنهم يستشيرون خبراء في الأخلاق أو الموضوع.
غالبًا ما وجدت آنا أنه يتعين عليها الاختيار بين خيارين سيئين. "حتى لو كانت كلتاهما إجابات خاطئة بشكل فظيع ، ما زلت بحاجة إلى معرفة أيهما أفضل وتدوين النص لشرح السبب" ، كما تقول. في بعض الأحيان ، عندما لا تكون أي من الإجابات جيدة ، يتم تشجيعها على إعطاء الإجابة بنفسها. إجابة أفضل. تفعل هذا حوالي نصف الوقت أثناء التدريب.
06 تتطلب التعليقات مهارات وخبرات محددة بشكل متزايد
نظرًا لصعوبة جمع بيانات التعليقات ، يكون سعر البيع أعلى. هذا النوع من بيانات التفضيل الأساسية التي تجمعها Ana هي المبيعات بحوالي دولار واحد للقطعة ، وفقًا لأشخاص على دراية بالصناعة. ولكن إذا كنت ترغب في تدريب نموذج لإجراء بحث قانوني ، فأنت بحاجة إلى شخص لديه تدريب قانوني ، مما يؤدي إلى زيادة التكاليف. لن يكشف جميع المعنيين بالضبط عن المبلغ الذي دفعوه ، ولكن بشكل عام ، يمكن أن يكلف مثال مكتوب احترافي بضع مئات من الدولارات ، في حين أن تقدير الخبراء قد يكلف 50 دولارًا أو أكثر. كشف أحد المهندسين أنه دفع ذات مرة 300 دولار مقابل عينة من حوار سقراط.
لم تكشف OpenAI و Microsoft و Meta و Anthropic عن عدد الأشخاص الذين ساهموا في التعليقات التوضيحية لنماذجهم ، أو المبلغ الذي تم دفعه لهم ، أو مكان وجودهم في العالم. قال أوين من شركة DeepMind الشقيقة لـ Google إن المعلقين الذين يعملون في Sparrow يتقاضون رواتب لا تقل عن الحد الأدنى للأجور في الساعة ، اعتمادًا على مكان وجودهم. لا تعرف آنا "شيئًا" عن Remotasks ، لكنها تعرف المزيد عن Sparrow ، مع العلم أنها مساعد الذكاء الاصطناعي لـ DeepMind ، والذي دربه منشئوه باستخدام RLHF.
حتى وقت قريب ، كان من السهل نسبيًا اكتشاف المخرجات السيئة من نماذج اللغة ، والتي بدت مثل هراء. ولكن مع تحسن النماذج ، يصبح هذا الأمر أكثر صعوبة ، وهي مشكلة تُعرف باسم "الإشراف القابل للتطوير". أظهر استخدام Google لنماذج اللغة الحديثة في ظهور مساعد الذكاء الاصطناعي الخاص بها ، Bard ، عن غير قصد مدى صعوبة اكتشاف الأخطاء في نماذج اللغة الحديثة. يعني هذا المسار أن التعليقات التوضيحية تتطلب بشكل متزايد مهارات وخبرات محددة.
في العام الماضي ، كان رجل يدعى لويس يعمل في ميكانيك ترك ، وبعد الانتهاء من مهمة ، تلقى رسالة تدعوه للانضمام إلى منصة لم يسمع بها من قبل. إنه يسمى Taskup.ai ، والموقع بسيط جدًا ، مجرد خلفية بحرية مكتوب عليها "الدفع حسب الاستخدام". اختار لويس التسجيل.
أجر الوظيفة أفضل بكثير من أي وظيفة أخرى كان يعمل بها من قبل ، وعادة ما تكون حوالي 30 دولارًا في الساعة. ومع ذلك ، فهو أيضًا أكثر تحديًا ، حيث يتطلب تصميم سيناريوهات معقدة لخداع روبوتات المحادثة لإعطاء نصائح خطيرة ، واختبار قدرة النموذج على الحفاظ على شخصيته الخاصة ، والمشاركة في محادثات مفصلة حول موضوعات علمية عالية التقنية وتتطلب إجراء بحث مكثف. وجد لويس الوظيفة "مرضية ومثيرة". أثناء فحص نموذج ومحاولة ترميزه في بايثون ، كان لويس يتعلم. لا يستطيع العمل أكثر من 4 ساعات متواصلة خشية أن يصاب بالإرهاق العقلي ويخطئ ، ويريد الاحتفاظ بالوظيفة.
قال لويس: "إذا كان هناك أي شيء يمكنني تغييره ، فأنا أريد فقط معرفة المزيد عما يحدث على الطرف الآخر. نحن نعرف فقط ما نحتاجه لأداء المهمة ، ولكن إذا عرفت المزيد ، فربما يمكنني إنجاز المهمة . إنجاز أكبر ، وربما اعتبارها مهنة ".
أجرى المراسل الاستقصائي التكنولوجي زيزا مقابلات مع ثمانية أشخاص آخرين ، معظمهم في الولايات المتحدة ، ممن لديهم تجارب مماثلة في الإجابة على الاستطلاعات أو إكمال المهام على منصات أخرى ثم وجدوا أنفسهم وظفتهم Taskup.ai أو عدد قليل من المواقع المماثلة ، مثل DataAnnotation.tech أو Gethybrid.io. غالبًا ما يتضمن عملهم تدريب روبوتات المحادثة ، على الرغم من أن برامج الدردشة الخاصة بهم ذات جودة أعلى وأكثر تخصصًا في الغرض من المواقع الأخرى التي عملوا عليها. أحدهما عبارة عن ماكرو لجدول بيانات للعرض التقديمي ، والآخر يحتاج فقط إلى إجراء محادثة وتقييم الردود وفقًا للمعايير التي تريدها. غالبًا ما تطرح أسئلة روبوت الدردشة التي تظهر أيضًا عند الدردشة مع ابنتها البالغة من العمر 7 سنوات ، مثل "ما هو أكبر ديناصور؟" و "اكتب قصة عن نمر".
يبدو أن كل من Taskup.ai و DataAnnotation.tech و Gethybri.io ينتمون إلى نفس الشركة: Surge AI. لم يؤكد إدوين تشين ، الرئيس التنفيذي للشركة ، أو ينفي الاتصال ، لكنه كان على استعداد للتحدث عن شركته وكيف يرى تطور التعليقات التوضيحية.
يقول إدوين ، الذي أسس Surge AI في عام 2020 بعد العمل في أبحاث الذكاء الاصطناعي في Google و Facebook و Twitter ، "لقد شعرت دائمًا أن مجال وضع العلامات كان بسيطًا". قال إدوين: "نأمل أن يتمكن الذكاء الاصطناعي من إلقاء النكات ، أو كتابة نسخة تسويقية جيدة ، أو مساعدتي عندما أحتاج إلى علاج. ولكن لا يمكن للجميع قول النكات أو حل مشاكل برمجة بايثون. هذه العقلية منخفضة الجودة وقليلة المهارات تتحول إلى شيء أكثر ثراءً ويلتقط المهارات البشرية والإبداع والقيم التي نريد أن تمتلكها أنظمة الذكاء الاصطناعي. "
07 تعد أنظمة التعلم الآلي غريبة جدًا بحيث لا يمكن الوثوق بها تمامًا
في العام الماضي ، أعادت Surge AI تسمية مجموعة بيانات لتصنيف Google لمشاركات Reddit حسب المشاعر. جردت Google سياق كل منشور وأرسلته إلى المعلقين في الهند للتعليق. وجد موظفو الذكاء الاصطناعي المطلعون على ثقافة الإنترنت الأمريكية أن 30٪ من التعليقات التوضيحية كانت خاطئة. تم تصنيف منشورات مثل "Hell، my bro" على أنها "Hate" ، بينما تم تصنيف "Cool McDonald's ، المفضل لدي" على أنه "مفضل".
قال إدوين إن Surge AI يفحص مؤهلات المعلقين ، مثل ما إذا كان الأشخاص الذين يقومون بمهام الكتابة الإبداعية لديهم خبرة في الكتابة الإبداعية ، ولكن بالضبط كيف تجد الموظفين هو "سر". كما هو الحال مع Remotasks ، يجب على العمال عادة إكمال دورة تدريبية ، على الرغم من أنه على عكس Remotasks ، يمكن الدفع لهم مقابل القيام بالمهام أثناء التدريب. لقد سمح وجود عدد أقل من الموظفين المدربين بشكل أفضل وإنتاج بيانات عالية الجودة لشركة Surge AI بدفع أجور أفضل من نظرائها ، لكنه رفض الخوض في التفاصيل ، قائلاً فقط إن رواتب الموظفين "على مستوى عادل وأخلاقي". تربح هذه التعليقات التوضيحية ما بين 15 و 30 دولارًا في الساعة ، لكنها تمثل جزءًا صغيرًا من جميع المعلقين ، وهي مجموعة يبلغ عددها الآن 100000. وأوضح أن هذه السرية نابعة من طلب العميل.
هذه النماذج الجديدة مثيرة للإعجاب لدرجة أنها ألهمت موجة جديدة من التوقعات بأن التعليقات التوضيحية على وشك أن تصبح آلية. إن الضغط المالي للقيام بذلك مرتفع بالنظر إلى التكاليف المترتبة على ذلك. خطت Anthropic و Meta وغيرهما مؤخرًا خطوات واسعة في استخدام الذكاء الاصطناعي لتقليل مقدار التعليقات التوضيحية البشرية اللازمة لتوجيه النماذج ، وبدأ مطورون آخرون في استخدام GPT-4 لإنشاء بيانات التدريب.
ومع ذلك ، وجدت ورقة بحثية حديثة أن النماذج المدربة على GPT-4 قد تتعلم لتقليد أسلوب GPT الموثوق به بدقة أقل. حتى الآن ، عندما جعلت التحسينات التي تم إجراؤها على الذكاء الاصطناعي أحد أشكال الملصقات قديمة ، زادت الحاجة إلى أنواع أخرى أكثر تعقيدًا. أصبح النقاش علنيًا في وقت سابق من هذا العام عندما غرد الرئيس التنفيذي لشركة Scale AI بأنه توقع أن تنفق مختبرات الذكاء الاصطناعي قريبًا مليارات الدولارات على البيانات البشرية ، تمامًا كما كانوا يحسبون كما هو مذكور أعلاه. أجاب سام التمان ، الرئيس التنفيذي لشركة OpenAI ، أنه مع تقدم الذكاء الاصطناعي ، ستقل الحاجة إلى البيانات.
يشك إدوين في أن الذكاء الاصطناعي سيصل إلى نقطة حيث لم تعد هناك حاجة إلى ردود الفعل البشرية ، لكنه يرى أن وضع العلامات أصبح صعبًا بشكل متزايد مع تحسن النماذج. مثل العديد من الباحثين ، يعتقد أن الطريق إلى الأمام سيشمل أنظمة الذكاء الاصطناعي التي تساعد البشر في الإشراف على أنظمة الذكاء الاصطناعي الأخرى. دخلت Surge AI مؤخرًا في شراكة مع Anthropic لإثبات صحة المفهوم حيث يجيب المعلقون على أسئلة حول جزء طويل من النص بمساعدة مساعد ذكاء اصطناعي غير موثوق به ، حيث تنص النظرية على أن البشر يجب أن يشعروا بنقاط ضعف مساعد الذكاء الاصطناعي والتفكير التعاوني للعثور عليه الجواب الصحيح.
الاحتمال الآخر هو أن يناقش اثنان من الذكاء الاصطناعي بعضهما البعض ، بحيث يتخذ الإنسان الحكم النهائي. قال جون شولمان ، عالم أبحاث أوبن إيه آي في عرض تقديمي حديث في بيركلي: "لم نر الإمكانات العملية الحقيقية لهذا النوع من الأشياء حتى الآن ، لكنها بدأت تصبح ضرورية لأنه من الصعب على المعلقين مواكبة" تقدم النموذج ".
قال إدوين: "أعتقد أنك ستحتاج دائمًا إلى إنسان لمراقبة ما يفعله الذكاء الاصطناعي ، لمجرد أنه كائن فضائي. أنظمة التعلم الآلي غريبة جدًا بحيث لا يمكن الوثوق بها تمامًا. الأكثر إثارة للإعجاب اليوم بعض نماذجنا لديها نقاط ضعف تبدو غريبة جدًا للبشر. على الرغم من أن GPT-4 يمكن أن يولد نصًا معقدًا ومقنعًا ، إلا أنه لا يمكنه تحديد الكلمات التي تعتبر صفات ".
08 ChatGPT يساعد كثيرًا في تدفق المهام
مع اقتراب عام 2022 من نهايته ، بدأ جو يسمع من طلابه أن قوائم مهامهم كانت فارغة في كثير من الأحيان. ثم تلقى بريدًا إلكترونيًا يبلغه بأن معسكر التدريب في كينيا على وشك الإغلاق. واصل مهامه التدريبية عبر الإنترنت ، لكنه بدأ يقلق بشأن المستقبل. "
قال جو "هناك مؤشرات على أن هذا لن يكون هو الحال لفترة طويلة". عمل التعليقات التوضيحية على وشك مغادرة كينيا. من الزملاء الذين التقى بهم عبر الإنترنت ، سمع أن مثل هذه البعثات يتم إرسالها إلى نيبال والهند والفلبين قال جو: "تنتقل الشركات من منطقة إلى أخرى. ليس لديهم البنية التحتية محليًا ، لذلك لديهم المرونة للانتقال إلى حيث تكون تكاليف التشغيل أكثر فائدة لهم. "
تتمثل إحدى الطرق التي تختلف بها صناعة الذكاء الاصطناعي عن الهواتف المحمولة وصانعي السيارات في السيولة. يتغير هذا العمل باستمرار ، حيث يتم تشغيله تلقائيًا واستبداله بمتطلبات جديدة لأنواع جديدة من البيانات. إنه خط أنابيب ، ولكن يمكن إعادة تكوينه باستمرار وبسرعة ، حيث يتم نقل المهارات المناسبة وعرض النطاق الترددي وكشوف المرتبات.
في الآونة الأخيرة ، عادت الوظائف ذات الأجور الأعلى لمهام التعليقات التوضيحية إلى الولايات المتحدة. في مايو ، بدأ Scale AI بإدراج وظائف التعليقات التوضيحية على موقعه على الويب ، بحثًا عن أشخاص لديهم خبرة في كل مجال تقريبًا من المتوقع أن يتغلب عليه الذكاء الاصطناعي. بعض هذه القوائم من مدربي الذكاء الاصطناعي الذين لديهم تدريبات في اللياقة البدنية ، والموارد البشرية ، والتمويل ، والاقتصاد ، وعلوم البيانات ، والبرمجة ، وعلوم الكمبيوتر ، والكيمياء ، وعلم الأحياء ، والمحاسبة ، والضرائب ، والتغذية ، والفيزياء ، والسفر ، والتعليم K-12 ، والصحافة الرياضية والنفس. -مساعدة الخبرة.
يمكنك تعليم قانون الروبوتات وكسب 45 دولارًا في الساعة ؛ علمهم الشعر وكسب 25 دولارًا في الساعة. يسرد الموقع أيضًا عمليات التجنيد للأشخاص ذوي الخبرة الأمنية ، للمساعدة على الأرجح في تدريب الذكاء الاصطناعي العسكري. كشف Scale AI مؤخرًا عن نموذج للغة دفاعية يُدعى Donovan ، أطلق عليه المسؤولون التنفيذيون في الشركة "الذخيرة في حرب الذكاء الاصطناعي" ، وفازوا بعقد للعمل في برنامج المركبات القتالية الروبوتية للجيش.
لا تزال آنا تدرب روبوتات المحادثة في تكساس. تحول الزملاء إلى معلقين ومشرفين على Slack ، ولم تكن تعرف السبب ، لكنها أعطتها الأمل في أن تكون الوظيفة مهنة طويلة الأجل. وقالت إن الشيء الوحيد الذي لم تقلق بشأنه هو استبدال الوظائف بالأتمتة: "أعني ، يمكن لبرامج الدردشة الآلية القيام بالكثير من الأشياء المدهشة ، ولكن يمكنها أيضًا القيام ببعض الأشياء الغريبة حقًا."
عندما أتت شركة Remotasks إلى كينيا لأول مرة ، اعتقد جو أن التعليق التوضيحي قد يكون مهنة جيدة. كان مصممًا على مواصلة العمل حتى بعد انتقاله إلى مكان آخر. لقد استنتج أن هناك الآلاف من الأشخاص في نيروبي يعرفون كيفية القيام بهذا العمل. بعد كل شيء ، قام بتدريب الكثير من الناس. استأجر Joe مكتبًا في المدينة وبدأ في البحث عن عقود الاستعانة بمصادر خارجية: وظيفة تشرح مخططات لشركة إنشاءات ، وآخر توضيحيًا لفاكهة تالفة بسبب الحشرات لنوع من المشاريع الزراعية ، وأخرى للسيارات ذاتية القيادة. إجراءات وضع العلامات.
لكن وجد جو أن رؤيته كانت صعبة التحقيق. لديه الآن موظف واحد فقط بدوام كامل ، بعد أن كان يعمل من قبل. قال: "لم يكن لدينا تدفق ثابت للعمل". لم يكن هناك شيء نفعله لأسابيع لأن العملاء ما زالوا يجمعون البيانات. عندما انتهى العميل من جمع البيانات ، كان عليه إحضار مقاولين على المدى القصير للوفاء بالمواعيد النهائية: "لم يكن العميل مهتمًا إذا كان لدينا عمل مستمر. طالما تم تصنيف مجموعة البيانات ، فسيكون ذلك جيدًا."
من أجل عدم ترك مهاراتهم تضيع ، يقرر القائمون على أداء المهام الآخرين أين تذهب المهمة ، ويذهبون إلى هناك. يستأجرون خوادم بروكسي لإخفاء مواقعهم وشراء معرفات مزيفة لتجاوز الأمان حتى يتمكنوا من التظاهر بالعمل في سنغافورة أو هولندا أو ميسيسيبي أو في أي مكان تتدفق فيه المهمة. هذا عمل محفوف بالمخاطر. أصبح Scale AI عدوانيًا بشكل متزايد في تعليق الحسابات التي تبين أنها تخفي مواقعها ، وفقًا للعديد من الجهات الفاعلة في المهام. "
قال فيكتور "لقد أصبحنا أكثر ذكاءً قليلاً هذه الأيام لأننا لاحظنا أنهم في بلدان أخرى يدفعون رواتب جيدة". إنه يكسب ضعف العمل في ماليزيا مثل كينيا ، ولكن "عليك توخي الحذر".
وقال معلق كيني آخر إنه قرر عدم الالتزام بالقواعد بعد أن تم حظر حسابه لأسباب غامضة. الآن ، يدير حسابات متعددة في بلدان متعددة ، ويقوم بمهام يكون فيها العائد أعلى. بفضل ChatGPT ، يقول إنه يعمل بسرعة ولديه نقاط جودة عالية. ويقول إن الروبوت رائع ويسمح له بإكمال مهام بقيمة 10 دولارات في دقائق.