ChatGPT'nin ardındaki "Yapay zekalı göçmen işçiler"in sırrını çözüyoruz: sıkıcı ve tekrarlayan, parça başına ödenen, 1 ABD Doları kadar düşük saatlik ücretler
Özet: Veri açıklayıcıları, verileri sınıflandırıp etiketleyerek, yapay zekanın büyük miktardaki verilerde örüntüler bularak öğrenmesini sağlar ve makinenin arkasına gizlenmiş "hayalet emek" olarak kabul edilir. Ek açıklama çalışması yapay zekanın temelidir, bütün bir tedarik zincirini oluşturmuştur ve bu tip çalışmalar uzun bir süre daha var olmaya devam edecektir.
Odak
Yapay zeka, büyük miktardaki verilerde örüntüler arayarak öğrenir, ancak önce bu verilerin insanlar tarafından sınıflandırılması ve etiketlenmesi gerekir ve veri açıklayıcıları ortaya çıkar, makinelerin arkasına gizlenmiş "hayalet işçiler" olarak kabul edilirler.
Noterlerin işi sıkıcı ve meşakkatlidir.Genellikle tekrar eden işler yapmaları gerekir ve parça parça ödenirler.Ortalama saatlik maaş 5 ila 10 ABD doları (yaklaşık 36 ila 72 yuan) arasındadır. Bu yılın başında, bazı yorumcuların saatlik ücretleri 1 ila 3 ABD Doları'na (yaklaşık 7 ila 22 yuan) düşürüldü.
Ek açıklama çalışması hala yapay zekanın temelidir ve tam bir tedarik zinciri oluşturmuştur. Bu tür işler uzun süre kalmak için buradalar.
Ek açıklama işi, akıllı telefonlardan ve araba imalatından farklıdır, çünkü kolayca deforme olur ve akıcıdır ve genellikle işletme maliyeti daha düşük olan yerlere akar.
Şimdi 30 yaşında olan Joe, Nairobi Üniversitesi'nden mezun olduktan birkaç ay sonra, sıkıcı ve sıkıcı olan yapay zekayı eğitmek için kullanılan ham bilgilerin işlenmesine yardımcı olan bir annotator olarak bir iş buldu. Yapay zeka, büyük miktardaki verilerde örüntüler bularak öğreniyor ancak önce bu verilerin insanlar tarafından sınıflandırılması ve etiketlenmesi gerekiyor ki, insanların makinelerin arkasına gizlenmiş "hayalet işçiler" olduğu söylenebilir.
Örneğin, Joe'nun kendi kendine giden arabalar için videoları etiketlediği, arabaları, yayaları, bisikletlileri ve sürücünün dikkat etmesi gereken her şeyi her kamera açısından kare kare belirlediği çalışmasını ele alalım. Bu zor ve tekrarlayan bir iştir. Birkaç saniyelik kısa bir videoya açıklama eklemek sekiz saat sürüyor ve Joe bunun için yaklaşık 10 dolar alıyor.
Ardından, 2019'da önüne bir fırsat çıktı ve Joe, açıklayıcılara umutsuzca ihtiyaç duyan ve dört kat daha fazla kazanan yeni bir şirket için çalışanları eğitmeye başladı. Her iki haftada bir 50 yeni çalışan, çıraklık eğitimlerine başlamak için Nairobi'deki bir ofis binasına girmek için sıraya giriyor. Açıklayıcılara olan ihtiyaç sonsuz görünüyor. Ayna özçekiminde gördükleri kıyafetleri kategorize etmeleri, robot elektrik süpürgesinin gözünden bulundukları odayı belirlemeleri ve lidar ile taranan bir motosikletin etrafına kutular çizmeleri istenecek. Joe'nun öğrencilerinin yarısından fazlası genellikle eğitim bitmeden okulu bırakır. "Bazı insanlar bir yerde uzun süre nasıl kalınacağını bilmiyor," diye nazikçe açıkladı. Artı, "işin sıkıcı olduğunu" kabul ediyor.
Ama işlerin az olduğu bir yerde iyi bir iş ve Joe yüzlerce mezun verdi. Eğitimden sonra çıraklar evlerine dönebilir ve ne yaptıklarını kimseye söylemeden yatak odalarında ve mutfaklarında tek başlarına çalışabilirler. Asıl sorun bu değil çünkü ne yaptıklarını bile anlamıyorlar.
Kendi kendine giden arabalar için nesneleri etiketlemek kolaydır, ancak bozuk diyalog parçacıklarını sınıflandırmak ve konuşmacının bir robot mu yoksa bir insan mı olduğunu belirlemek zorluklarla doludur. Her tanıma nesnesi, daha büyük bir projenin küçük bir parçasıdır, bu nedenle yapay zekayı tam olarak ne yapması için eğittiklerini söylemek zor. Bu nesnelerin adları da herhangi bir ipucu sağlamaz, Crab Generation, Whale Segment, Woodland Gyro ve Pillbox Bratwurst, herhangi bir mantıksal sıralama olmaksızın iş kodlarıdır.
Onları işe alan şirkete gelince, çoğu kişi bunu yalnızca akıcı İngilizce konuşan herkese iş fırsatları sunan bir web sitesi olan Remotasks olarak biliyor. Çoğu yorumcu gibi Joe da Remotasks'in Scale AI'a ait bir sözleşmeli işçi şirketi olduğunu bilmiyordu. Scale AI, müşterileri arasında yapay zeka başlangıcı OpenAI ve ABD ordusu bulunan milyarlarca dolarlık bir Silikon Vadisi veri sağlayıcısıdır. Ne Remotasks ne de Scale AI web sitelerinde birbirlerinden bahsetmezler.
01 Eşsiz insan yeteneklerine sahip yardımcı makineler
OpenAI'nin ChatGPT'si gibi büyük dil modellerine halkın tepkisinin çoğu, otomatikleştirmeye hazır göründükleri işe odaklandı. Ancak en etkileyici yapay zeka sistemi bile, verileri etiketleyerek onu eğiten ve işler karıştığında devreye giren insanların yardımı olmadan yapamaz. Yalnızca verileri satın almaya gücü yeten şirketler sektörde rekabet edebilir ve verileri elde edenler, bunu bir sır olarak saklamak için büyük çaba sarf edeceklerdir. Sonuç olarak, birkaç kişi dışında, bu sistemlerin davranışlarını etkileyen bilgiler hakkında çok az şey biliyoruz ve hatta onları şekillendiren davranışların arkasındaki insanlar hakkında daha az şey biliyoruz.
Joe'nun öğrencileri için bu, her türlü normallikten arınmış bir iş: Sıkı bir programa bağlı kalmaları bekleniyor ve ne yaptıklarını veya kimin için çalıştıklarını bilmeleri gerekmiyor. Aslında, kendilerine nadiren iş diyorlar, sadece rutin "görevler" diyorlar. Kendilerine görev işçisi diyorlar.
Antropolog David Graeber, sözde "saçma işler" tanımladı - anlamı veya amacı olmayan işler. Bunlar, bürokrasi, statü veya atalet nedenleriyle otomatikleştirilmesi gereken ancak otomatikleştirilmeyen işlerdir. Yapay zekayı eğitme işi benzerdir: İnsanların otomatikleştirmek istediği işler genellikle otomatik olarak kabul edilir, ancak yine de insanların katılmasını gerektirir. Bu görevlerin özel amaçları vardır, ancak not verenler bunun farkında değildir.
Mevcut AI patlaması, bu oldukça sıkıcı, tekrarlayan emekle başladı. 2007 gibi erken bir tarihte, bir yapay zeka araştırmacısı olan ve o zamanlar Princeton Üniversitesi'nde profesör olan Fei-Fei Li, görüntü tanıma için sinir ağlarını geliştirmenin anahtarının, on binlerce yerine milyonlarca etiketli görüntü gerektiren daha fazla veri üzerinde eğitim olduğundan şüpheleniyordu. Sorun şu ki, ekibinin bu kadar çok fotoğrafı etiketlemesi onlarca yıl ve milyonlarca dolar alacaktı.
Fei-Fei Li, dünyanın dört bir yanındaki insanların küçük görevleri ucuza tamamladığı Amazon'un kitle kaynak platformu Mechanical Turk'te binlerce işçi buldu. Sonuç olarak ImageNet olarak bilinen etiketli veri seti, makine öğreniminde büyük bir atılım sağlayarak alanı yeniden canlandırdı ve son on yılın ilerlemesine öncülük etti.
Ek açıklama, AI geliştirmenin önemli bir parçası olmaya devam ediyor, ancak mühendisler genellikle bunun daha göz alıcı modelleme çalışmaları için geçici, hantal bir ön koşul olduğunu düşünüyor. Kendi modelinizi eğitmek için mümkün olduğunca çok etiketli veriyi olabildiğince ucuza toplayabilirsiniz ve bunu yapabilseydiniz, en azından teoride, artık açıklayıcılara ihtiyacınız olmazdı. Ancak, ek açıklama işi hiçbir zaman gerçekten yapılmaz. Araştırmacılar, makine öğrenimi sistemlerinin "kırılgan" olduğunu ve eğitim verilerinde iyi açıklanmayan şeylerle karşılaştığında başarısızlığa eğilimli olduğunu savunuyorlar. Bu hatalar "uç vakalar" olarak bilinir ve ciddi sonuçlara yol açabilir.
2018'de, araç çağırma şirketi Uber'in sürücüsüz bir test arabası, bisikletçiler ve yayalardan kaçınmak üzere programlanmış olmasına rağmen, karşıdan karşıya geçen bisikletçilerle ne yapacağını bilemediği için bir kadını öldürdü. Daha fazla yapay zeka sistemi yasal tavsiye ve tıbbi yardım sağladıkça, daha fazla uç vakayla karşılaşıyorlar ve daha fazla insanın bunları çözmesi gerekiyor. Bu, benzersiz insan yeteneklerini makinelere yardım etmek için kullanan Joe gibi insanlardan oluşan küresel bir endüstri yarattı.
Son altı ayda, teknoloji araştırmacısı muhabir Josh Dzieza, dünyanın dört bir yanından, çoğu son teknoloji sohbet botları eğiten, ancak aynı zamanda yapay zekayı çalışır durumda tutmak için gereken sıradan fiziksel emeği yapan birçok kişi olan iki düzineden fazla yorumcuyla konuştu. . Bazıları TikTok videolarının duygusal içeriğini, yeni spam varyasyonlarını ve uygunsuz çevrimiçi reklamları katalogladı. Diğerleri kredi kartı işlemlerine bakıyor ve bunlarla ilişkili satın alma türlerini buluyor veya e-ticaret tavsiyelerine bakıyor ve başka bir gömlek aldıktan sonra o gömleği gerçekten beğenip beğenmeyeceğinize karar veriyor.
İnsanlar, müşteri hizmetleri sohbet robotlarının hatalarını düzeltiyor, Amazon'un akıllı asistanı Alexa'nın isteklerini dinliyor ve görüntülü aramalarda insanların duygularını kategorize ediyor. Akıllı buzdolaplarının yeni ambalajlarla karıştırılmaması için yiyecekleri etiketliyorlar, alarm çalmadan önce otomatik güvenlik kameralarını kontrol ediyorlar ve kafası karışan otonom traktörlerin mısırı tanımlamasına yardımcı oluyorlar.
02 Yorumlar büyük bir iş, "kendi kendini yetiştirmiş en genç milyarder"i doğuruyor
Kar amacı gütmeyen Yapay Zeka Üzerine Ortaklık'ın program ve araştırma direktörü Sonam Jindal, "Bu tam bir tedarik zinciri. Sektördeki genel algı, bu çalışmanın teknoloji geliştirmenin kritik bir parçası olmadığı yönünde. teknolojinin gelişimi." Uzun bir süre başarılı olacak. Tüm heyecan, yapay zekayı inşa etmeye yayılır ve onu bir kez oluşturduğumuzda, artık ek açıklamalara gerek yoktur, o halde neden bunu düşünmeye zahmet edelim? Ancak veri etiketleme, tıpkı yapay zekanın temelidir. zeka, yapay zekanın temeli olsa da, bunları yapay zeka ekonomisinde uzun süre kalacak gerçek işler olarak görmemiz gerekiyor."
OpenAI, Google ve Microsoft gibi tanıdık isimlerin arkasındaki veri satıcıları farklı kılıklara bürünüyor. Kenya ve Nepal'deki CloudFactory gibi, Joe'nun Remotasks'a geçmeden önce saati 1,20 ABD Doları'na ek açıklama yaptığı, çağrı merkezi benzeri ofisleri olan özel dış kaynak şirketleri de var.
Ayrıca Mechanical Turk ve Clickworker gibi herkesin görevleri tamamlamak için kaydolabileceği "crowdworker" siteleri de vardır. Ortada Scale AI gibi hizmetler var. Herkes kaydolabilir, ancak herkesin bir yeterlik sınavını, bir eğitim kursunu geçmesi ve performans açısından izlenmesi gerekir. Ek açıklamalar büyük bir iştir. 2016 yılında o zamanlar 19 yaşında olan Alexander Wang tarafından kurulan Scale AI, 2021'de 7,3 milyar dolar değerindeydi ve bu onu Forbes'un kendi kendini yetiştirmiş en genç milyarderlerinden biri yaptı.
Bu karmaşık tedarik zinciri, dışarıdan birinin anlaması zor. Sektör kaynaklarına göre, etiketli verileri satın alan şirketler katı gizlilik talep ediyor. Ek açıklamalar bazen geliştirilmekte olan AI sistemi hakkında bilgi sızdırır ve çok sayıda ek açıklamanın eklenmesi, sızıntının önlenmesini zorlaştırır. Noterler her zaman çalışmalarından kimseye, hatta arkadaşlarına ve meslektaşlarına bahsetmemeleri konusunda uyarılır. En önemlisi, aşırı işbölümü, isteseler bile işleri hakkında konuşmak için yeterli bilgiye sahip olmamalarını sağlar.
Bu nedenle, şerhte çalışan kişilerin sayısı hakkında ayrıntılı tahminler vermenin bir yolu yoktur, ancak kesin olan, sayılarının çok olduğu ve hızla arttığıdır. Google Research kısa bir süre önce, ek açıklama yapanların sayısının "milyonlarca" ve muhtemelen gelecekte "milyarlarca" olacağı konusunda belirsiz tahminler veren bir makale yayınladı.
Otomasyon genellikle beklenmedik şekillerde gelir. Bir tıbbi veri açıklama şirketi olan Centaur Labs'ın CEO'su Erik Duhaime, birkaç yıl önce önde gelen birkaç makine öğrenimi mühendisinin yapay zekanın radyologların yerini alacağını tahmin ettiğini hatırlıyor. Bu olmadığında, geleneksel görüş yapay zekayı bir araç olarak kullanan radyologlara döner.
Duheim'a göre bunların hiçbiri olmadı. Yapay zeka, belirli görevlerde çok iyidir, bu da işin parçalanmasını ve özel algoritmik sistemlere ve eşit derecede uzmanlaşmış insanlara atanmasını ister. Örneğin, bir AI sisteminin kanseri tespit edebileceğini, ancak yalnızca belirli makine türlerinde, belirli görüntü türlerinde olduğunu söyledi. Bu nedenle, AI'nın doğru türde verilerle beslenip beslenmediğini kontrol etmeye yardımcı olacak birine ve belki de bir rapor yazmak için başka bir AI'ya ve son olarak bir insana teslim etmeden önce çalışıp çalışmadığını kontrol edecek başka birine ihtiyacınız var. Duheim, "AI, insan işlerinin yerini almayacak, ancak işlerin düzenlenme şeklini değiştirecek" dedi.
Yapay zekayı akıllı, düşünen bir makine olarak düşünüyorsanız, arkasındaki insanları görmezden geliyor olabilirsiniz. Du Haimei, yapay zekanın modern çalışma üzerindeki etkisinin, zanaatkarlardan endüstriyel üretime geçiş gibi olduğuna inanıyor: tutarlı süreçler, montaj hattı boyunca düzenlenmiş küçük görevlere bölünür, bazı adımlar makineler, bazıları insanlar tarafından tamamlanır, ancak öncekilerden farklı, durum oldukça farklı.
Yapay zekanın kesintiye uğramasıyla ilgili endişelere genellikle, yapay zekanın tüm işleri değil belirli görevleri otomatikleştirdiği söylenerek karşılık verilir. Bu görevler genellikle sıkıcı ve sıkıcıdır ve insanları daha tatmin edici, insani işler peşinde koşmaya bırakır. Ancak, yapay zekanın yükselişinin aynı zamanda geçmişin emek tasarrufu sağlayan teknolojilerine benzemesi de aynı derecede olasıdır; örneğin telefon veya daktilo gibi, mesajları iletmenin ve el yazısının angaryasını ortadan kaldıran ancak iletişim, ticaret ve iletişim hakkında daha fazla bilgi üreten daktilo gibi. Öyle ki, onları yönetmek için yeni tip işçiler, katipler, muhasebeciler, daktilolar vb. Yapay zeka işinize katıldığında işinizi kaybetmeyebilirsiniz, ancak bu daha garip, daha izole edici ve daha sıkıcı hale gelebilir.
03 Karmaşık gerçekliği makine tarafından okunabilen bir şeye basitleştirin
Bu yılın başlarında gazeteci Ziyeza, Remotasks'ta bir işe girdi. İşlem basit. "Eğitim Merkezi"ne girmek için yalnızca bilgisayar özelliklerini, ağ hızını ve temel iletişim bilgilerini girmeniz yeterlidir. Ücretli görevler alabilmek için Ziyeza'nın önce ilgili ancak ücretsiz giriş kurslarını tamamlaması gerekiyordu. Eğitim merkezi, Glue Swimsuits ve Poster Hawaii gibi anlaşılmaz isimlerle bir dizi sınıf sergiledi. Zieza, kıyafetlerin sosyal medya fotoğraflarında etiketlenmesini gerektiren GFD Chunking adlı bir şeye tıkladı.
Bunun ötesinde, gerçek, insanlar tarafından giyilebilir veya gerçek insanlar tarafından giyilmesi amaçlanan öğeleri etiketleme zorunluluğu gibi görevler için talimatlar vardır. Gerçek insanların giyebileceği gerçek kıyafetleri, gerçek insanların giyemeyeceği sahte kıyafetlerden ayırt edebildiğine güvenen Ziyeza, test etmek için yola çıkar. Ancak, hemen kafasına vuruldu: bilgisayar, etekli bir kadının bir dergi resmini verdi. Kıyafet fotoğrafları gerçek kıyafet olarak kabul edilmeli mi? Hayır, diye düşündü Ziyeza, çünkü insan resmi giyemez. Sonuç bir hata gösteriyor! Çünkü yapay zekanın gözünde gerçek kıyafetlerin fotoğrafları gerçek kıyafetlerle eşdeğerdir.
Aşağıdaki görüntü, loş bir yatak odasında boy aynasında selfie çeken bir kadına ait. Giydiği gömlek ve şort gerçek giysi ve giysinin yansıması gerçek mi? Ziyeza da olumsuz cevap verdi ama yapay zeka sistemi gerçek kıyafetlerin yansımasının da gerçek kıyafetler olması gerektiğine inanıyor.
Utanç verici bir deneme yanılmanın ardından, Ziyeza nihayet işe koyuldu ve uygulamakta güçlük çektiği talimatların birçok kez güncellendiğini ve 43 sayfaya çıktığını dehşet içinde keşfetti. giysiler; ayakkabıları değil paletleri etiketleyin; taytları etiketleyin ama taytları değil; biri giyiyor olsa bile havluları etiketlemeyin; giysileri etiketlemeyin Etiketleyin ama zırhı etiketlemeyin. vesaire......
Almanya'daki Weizenbaum Enstitüsü'nde veriler üzerinde çalışan bir araştırmacı olan Milagros Miceli, sektörde yaygın bir kafa karışıklığının olduğunu söyledi. Kısmen bu, makine öğrenimi sistemlerinin öğrenme yönteminin bir ürünüdür. İnsanların "gömlek" kavramını anlamak için yalnızca birkaç örneğe ihtiyacı varken, makine öğrenme programlarının binlerce örneğe ihtiyacı var ve bunu mükemmel bir tutarlılık ve yeterli çeşitlilikle (polo gömlekleri, dış giyim gömlekleri, askılı gömlekler) yapmaları gerekiyor. raf), böylece sistem gerçek dünyadaki çeşitliliği işleyebilir. Miselli, "Karmaşık gerçekliği beceriksiz makinelerin okuyabileceği bir şeye indirgememiz gerektiğini hayal edin," dedi.
Makineler için, gerçekliği basitleştirme eylemi muazzam bir karmaşıklık getirir. Talimat yazarları, insanların dünyayı mükemmel bir tutarlılıkla sınıflandırmasına izin veren kurallar bulmalıdır. Bunu yapmak için genellikle insanların kullanmayacağı kategoriler oluştururlar. Bir kişiden bir fotoğraftaki tüm gömlekleri etiketlemesi istenirse, aynadaki gömlekleri etiketlemeyebilirler çünkü bunların gerçek giysiler değil, yansımalar olduğunu bilirler. Ama gerçek dünyayı anlamayan bir yapay zeka için bunlar sadece pikseller, ikisi tamamen aynı. Veri kümesindeki bazı gömlekler etiketliyse ve diğer yansıyan gömlekler etiketlenmemişse, model çalışmayacaktır. Bunun üzerine mühendis güncellenmiş bilgilerle tedarikçiye geri döndü ve aynada yansıyan gömleği etiketlemesini istedi. Yakında, tamamı kırmızı büyük harflerle yazılmış 43 sayfalık başka bir rehberiniz olacak.
Bir yorumcunun işi genellikle insan anlayışını bir kenara bırakmak ve talimatları çok, çok sıkı bir şekilde takip etmektir. Bir yorumcunun dediği gibi, bir robot gibi düşünün. Halüsinojen alırken standart bir test yapmak gibi saçma ama katı kurallara uymak için elinizden gelenin en iyisini yaptığınız garip bir zihinsel alan. Ek açıklama yapanların her zaman kafa karıştırıcı soruları olur, bu beyaz çizgili kırmızı bir gömlek mi yoksa kırmızı çizgili beyaz bir gömlek mi? Hasır bir kase elmalarla doluysa, bu bir "dekoratif kase" midir? Leopar baskısı ne renk? Her sorunun yanıtlanması gerekir ve tek bir yanlış tahmin, yasaklanmanıza ve kendi şaşırtıcı kuralları olan tamamen yeni, tamamen farklı bir göreve başlamanıza neden olabilir.
04 Parça başına ödeme yapın, görevi her üç saatte bir kontrol edin
Remotasks'taki çoğu iş, bir görev için birkaç sentten birkaç dolara kadar değişen kazançlarla parça parça ödenir. Görevlerin tamamlanması saniyeler veya saatler sürebileceğinden, maaşları tahmin etmek zordur. Remotasks Kenya'ya ilk geldiğinde, yorumcular nispeten iyi para ödediğini söylediler. Bu, göreve bağlı olarak saatte ortalama 5 ila 10 ABD Doları arasındadır. Ama zamanla maaş düşüyor.
Scale AI sözcüsü Anna Franko, şirketin ekonomistlerinin "adil ve rekabetçi tazminat sağlamak için" proje ayrıntılarını, gerekli becerileri, bölgesel yaşam maliyetini ve diğer faktörleri analiz ettiğini söyledi. Eski Scale AI çalışanları ayrıca, tazminatın, mevcut açıklayıcı sayısına ve veriye ihtiyaç duyulan hıza göre ayarlanan enflasyon fiyatlandırmasına benzer bir mekanizma aracılığıyla belirlendiğini söyledi. İstatistikler, Amerika Birleşik Devletleri'ndeki Remotasks yorumcularının genellikle saatte 10 ila 25 dolar kazandığını, ancak bazı profesyonel açıklama alanlarındaki uzmanlara daha fazla ödeme yapıldığını gösteriyor. Bu yılın başında Kenyalı yorumcuların maaşı saatte 1 ila 3 ABD dolarına (yaklaşık 7 ila 22 yuan) düştü.
Telegörev çalışmasıyla ilgili en yaygın şikayet, değişkenliğidir. Bu tür bir iş, uzun vadeli tam zamanlı bir iş olacak kadar istikrarlıdır, ancak tamamen ona güvenmek için çok fazla öngörülemezliğe sahiptir. Ek açıklama yapanlar, proje bitmeden bir düzine görevi tamamlamak için talimatları okumak ve ücretsiz eğitimleri tamamlamak için saatler harcarlar. Birkaç gün boyunca yeni görev olmayabilir ve sonra birdenbire tamamen farklı bir görev ortaya çıkabilir, muhtemelen saatler veya haftalar sürebilir. Herhangi bir görev onların son görevi olabilir ve bir sonraki görevin ne zaman geleceğini asla bilemezler.
Mühendisler ve veri satıcıları, bu patlama ve düşüş döngüsünün AI geliştirme hızından kaynaklandığını söylüyor. Büyük bir modeli eğitmek, çok sayıda ek açıklama ve ardından daha yinelemeli güncellemeler gerektirir ve mühendisler, hedef yayın tarihlerini karşılayabilmek için tüm bunların olabildiğince çabuk olmasını ister. Birkaç ay içinde binlerce anlatıcıya ihtiyaç duyabilir, ardından birkaç yüze düşebilir ve sonunda belirli bir türden yalnızca bir düzine kadar uzmana ihtiyaç duyabilirler. Bu işlem bazen döngüler halinde tekrarlanır. Partnership on AI'dan Jindal, "Soru şu ki, bu dalgalanmaların maliyetini kim karşılıyor?" dedi.
Başarılı olmak için, notçuların birlikte çalışması gerekir. Victor, Nairobi'de bir üniversite öğrencisiyken Remotasks için çalışmaya başladı ve kendisine bir trafik kontrol görevinde sorun yaşadığı söylendiğinde, herkesin bu görevden uzak durması gerektiğini bildiğini söyledi: çok zor, düşük maaşlı, buna değmez. Pek çok yorumcu gibi, Victor da iyi ödevler geldiğinde haberi yaymak için resmi olmayan bir WhatsApp grubu kullanıyor. Yeni bir fikir bulduğunda, başkalarına bunun nasıl yapılacağını göstermek için doğaçlama bir Google toplantısı başlatırdı. Herkes katılabilir ve bir süre birlikte çalışarak ipuçlarını paylaşabilir. "Birbirimize yardım etme kültürü geliştirdik çünkü bir kişinin tüm numaraları bilemeyeceğini biliyoruz" dedi.
İşler uyarı vermeden görünüp kaybolduğundan, ek açıklama yapanların her zaman tetikte olması gerekir. Victor, eşyaların genellikle gecenin bir yarısında ortaya çıktığını keşfetti, bu yüzden her üç saatte bir kalkıp onları kontrol etmeyi alışkanlık haline getirdi. Bir görev olduğunda, her zaman uyanık kalacaktır. Bir noktada, nedenini bilmese de kalabalık fotoğraflarında dirseklerini, dizlerini ve kafalarını işaretleyerek 36 saat uykusuz kaldı. Başka bir sefer o kadar uzun süre ayakta kaldı ki gözleri kızarmış ve şişmişti.
Ek açıklama yapanlar genellikle yalnızca başka yerlerdeki şirketler için AI sistemlerini eğittiklerini bilirler, ancak bazen anonimlik perdesi düşer ve talimatlarda belirtilen markalar veya sohbet robotları için çok fazla ipucu vardır. Bir yorumcu şöyle dedi: "Talimatları okudum, google'da arattım ve 25 yaşındaki bir milyarder için çalıştığımı öğrendim. Birini milyarder yaparsam ve birkaç dolar kazanırsam ve kelimenin tam anlamıyla hayatımı boşa harcıyorum."
Kendini yapay zekaya "çılgınca inanan" biri olarak tanımlayan Victor, tam otomatik bir geleceğin gerçekleşmesine yardımcı olmak istediği için açıklama işine başladı. Ancak bu yılın başlarında biri, WhatsApp grubunda, sağlayıcı Sama AI'daki çalışanlara ChatGPT'yi zehirli içeriği belirlemesi için eğitmeleri için saatte 2 dolardan daha az ödeme yapıldığına dair bir Time dergisi haberi yayınladı. Remotasks ve Scale AI arasındaki ilişkiyi kendisine söylenene kadar bilmeyen Victor, "İnsanlar bu şirketlerin çok karlı olmasına ve çok az ödeme yapmasına öfkeleniyor" dedi. Üzerinde çalıştığı görevlerden birinin talimatları, OpenAI tarafından kullanılanlarla neredeyse aynıydı, bu da muhtemelen ChatGPT üzerinde saati yaklaşık 3 dolara eğitim verdiği anlamına geliyor. "
Gelecekte hatırlanacağımızı söyleyen birini hatırlıyorum" dedi. Sıfır, "Piyadeden daha kötü muamele gördük. Gelecekte hiçbir yerde hatırlanmayacağız, bunu çok iyi hatırlıyorum. Yaptığımız işi ve verdiğimiz emeği kimse takdir etmeyecek. "
Giysilerin tanımlanması ve müşteri hizmetleri görüşmelerinin etiketlenmesi, ek açıklama işlerinden sadece birkaçıdır. Son zamanlarda, piyasadaki en sıcak şey chatbot eğitmenleridir. Alana özgü uzmanlık veya dil akıcılığı gerektirdiğinden ve maaşlar bölgeye göre ayarlanma eğiliminde olduğundan, iş daha fazla ödeme yapma eğilimindedir. Bazı profesyonel ek açıklama türleri, saatte 50 ABD doları veya daha fazlasını kazanabilir.
Anna adında bir kadın Teksas'ta iş ararken, genel bir çevrimiçi iş listesine rastladı ve başvurdu. Bir giriş sınavını geçtikten sonra, daha sonra ChatGPT one ile rekabet eden birçok sohbet robotundan biri olan Google DeepMind'ın sohbet robotu Sparrow olduğunu keşfettiği Dolphin kod adlı bir proje üzerinde eğitim veren 1.500 kişilik bir Slack odasına alındı. Anna'nın işi bütün gün Sparrow'la sohbet etmek ve saatlik maaş yaklaşık 14 dolar, artı yüksek iş verimliliği için ikramiye, "bu kesinlikle yerel süpermarkette çalışarak saatte 10 dolar kazanmaktan daha iyi."
05 AI üç kritere yanıt verir: doğruluk, kullanışlılık ve zararsızlık
Ve Ana işi seviyor. Sparrow ile bilim kurgu, matematiksel paradokslar, çocuk bilmeceleri ve TV şovlarını tartıştı. Bazen sohbet robotunun cevapları onu kahkahalara boğuyordu. Bazen, o da suskun hissediyor. Anna şöyle dedi: "Bazen ne soracağımı gerçekten bilmiyorum, bu yüzden içinde zaten iki sayfa yazılı olan küçük bir defterim var. Google'da ilginç konular arıyorum, bu yüzden bunu çok iyi yapabileceğimi düşünüyorum. Yedi saatin üstesinden gelebilirim. ki bu her zaman böyle değildir."
Anna, Sparrow'a her sorduğunda, iki yanıt verir ve o en iyisini seçerek "insan geri bildirim verileri" denen şeyi oluşturur. ChatGPT geçen yılın sonlarında piyasaya çıktığında, etkileyici derecede doğal konuşma tarzı, muazzam miktarda internet verisi üzerinde eğitilmiş olmasına borçluydu. Ancak ChatGPT'ye ve rakiplerine güç veren dil, birkaç tur insan ek açıklamasıyla filtrelenir.
Bir yüklenici ekibi, mühendislerin chatbot'un nasıl davranmasını istediğini, sorular sorup doğru yanıtları verdiğini, bilgisayar programlarını tanımladığını ve ardından işlevsel kodları verdiğini, suç ipuçlarını istediğini ve ardından kibarca reddettiğini gösteren örnekler yazdı. Model bu örneklerle eğitildikten sonra, onu yönlendirmek ve yanıtlarını sıralamak için daha fazla yüklenici tanıtılır. Ana'nın Sparrow'a yaptığı buydu.
Değerlendiricilere kullanmalarının söylendiği tam olarak dürüstlük, yardımseverlik veya sadece kişisel tercih gibi çeşitli kriterler vardı. Mesele şu ki, insan zevki hakkında veri oluşturuyorlar ve yeterli veri olduğunda, mühendisler tercihlerini ölçekte taklit edecek ikinci bir modeli eğitebilir, sıralama sürecini otomatikleştirebilir ve yapay zekalarını insan zevki davranış biçimini tanıması için eğitebilir. Sonuç, temel olarak zararlı istekleri reddeden ve yapay zeka doğasını, kendisinin farkında gibi görünen bir şekilde açıklayan, insana çok benzeyen bir robottur.
Diğer bir deyişle ChatGPT, insan gibi davranan, insanı taklit eden bir yapay zeka tarafından eğitildiği için insan gibi görünür.
Tekniğe "insan geri bildiriminden pekiştirmeli öğrenme" veya kısaca RLHF denir ve yapay zekanın ne yapmadığı üzerine düşünmeyi durdurmakta çok etkilidir. Örneğin, bir anlatıcı bir modele doğru olmayı öğrettiğinde, model bir kavram olarak cevapları mantığa veya dış kaynaklara göre kontrol etmeyi ve hatta doğruluğun ne olduğunu öğrenmez. Model hala insan yazı kalıplarını taklit eden bir metin tahmin makinesi olmasına rağmen, eğitim külliyatı artık özel örneklerle desteklenmiş ve model bunları desteklemek için ağırlıklandırılmıştır.
Bu, modelin dil haritasının doğru olarak işaretlenen bölümlerinden desenler çıkarmasına ve gerçekle eşleşen metinler üretmesine neden olabilir, ancak aynı zamanda tamamen yanlış bir şey yazarken doğru metnin kendine güvenen stilini ve jargonunu taklit etmesine de neden olabilir. . Açıklama yapanlar tarafından doğru olarak işaretlenen metnin gerçekten doğru olduğunun garantisi yoktur. Doğru olsa bile, modelin ondan doğru deseni öğrendiğinin garantisi yoktur.
Bu dinamik, açıklama eklemeyi sohbet botlarına kolay hale getirmez. Titiz ve tutarlı olması gerekir, çünkü kulağa doğru gelen materyali doğru olarak işaretlemek gibi baştan savma geri bildirimler, eğitimli modeli daha inandırıcı hale getirebilir. OpenAI ve DeepMind, daha önceki bir ortak projede, bu durumda, sanal bir robot eli bir nesneyi kavramak üzere eğitmek için RLHF'yi kullandı; sadece insan gözetmenlerine görüneceği şekilde.
Bir dil modelinin yanıtlarını sıralamak her zaman biraz özneldir çünkü bu bir dildir. Herhangi bir uzunluktaki metin, doğru, yanlış veya yanıltıcı olabilecek birden çok öğe içerebilir. OpenAI araştırmacıları, başka bir erken RLHF makalesinde bu engelle karşılaştı. Araştırmacılar, modellerinin metni özetlemesini sağlamak için model özetlerinin yalnızca yüzde 60'ının iyi olduğunu buldular. "Makine öğrenimindeki birçok görevin aksine, sorgularımızın net bir temel gerçeği yok" diye yakınıyorlar.
Ana, Sparrow'un yanıtlarını derecelendirirken, modelin tıbbi veya finansal tavsiye vermediğini, kendini insanlaştırıp değiştirmediğini veya diğer kriterleri ihlal etmediğini kontrol ederken, bunların doğruluğuna, kullanışlılığına ve zararsızlığına bakmalıdır. Eğitim verisi olarak kullanışlı olması için, modelin yanıtlarının nicel olarak sıralanması gerekir: Size nasıl bomba yapılacağını söyleyebilen bir robot, herhangi bir soruyu yanıtlamayı reddeden zararsız bir robottan "daha iyi" midir?
Bir DeepMind makalesinde, Sparrow'un yapımcıları sırayla açıklamalar yaparken, dört araştırmacı, botlarının duygusal tavsiye için ona başvuran kullanıcıların cinsiyeti hakkında varsayımlarda bulunup bulunmadığını tartıştı. DeepMind'de araştırma bilimcisi olan Geoffrey Irving'e göre, şirketin araştırmacıları, verileri kendilerinin gözden geçirdikleri ve belirsiz vakaları tartıştıkları haftalık açıklama oturumları düzenliyorlar. Bir vaka özellikle çetrefilli olduğunda, etik veya konunun uzmanlarına danışırlar.
Anna sık sık iki kötü seçenek arasında seçim yapmak zorunda kaldığını fark etti. "İkisi de korkunç derecede yanlış yanıtlar olsa bile, yine de hangisinin daha iyi olduğunu bulmanız ve nedenini açıklayan bir metin yazmanız gerekiyor" diyor. Bazen, her iki yanıt da iyi olmadığında, yanıtı kendisi vermesi için teşvik ediliyor. daha iyi bir cevap Bunu eğitim sırasında zamanın yarısında yapıyor.
06 Yorumlar giderek daha fazla özel beceri ve uzmanlık gerektiriyor
Geri bildirim verilerinin toplanması zor olduğu için satış fiyatı daha yüksektir. Sektör hakkında bilgisi olan kişilere göre, Ana'nın topladığı temel tercih verilerinin tanesi yaklaşık 1 dolardan satılıyor. Ancak yasal araştırma yapmak için bir model yetiştirmek istiyorsanız, hukuk eğitimi almış birine ihtiyacınız var ve bu da maliyetlerin artmasına neden oluyor. Katılan herkes tam olarak ne kadar ödediğini açıklamaz, ancak genel olarak konuşursak, profesyonel bir yazılı örnek birkaç yüz dolara mal olabilirken, bir uzman derecelendirmesi 50 ABD doları veya daha fazlasına mal olabilir. Bir mühendis, bir keresinde Socratic'nın diyaloğunun bir örneği için 300 dolar ödediğini ortaya çıkardı.
OpenAI, Microsoft, Meta ve Anthropic, modellerine ek açıklamalarla kaç kişinin katkıda bulunduğunu, onlara ne kadar ödeme yapıldığını veya dünyanın neresinde bulunduklarını açıklamadı. Google'ın kardeş şirketi DeepMind'dan Owen, Sparrow üzerinde çalışan noterlere, bulundukları yere bağlı olarak saatte en az asgari ücret ödendiğini söyledi. Ana, Remotasks hakkında "hiçbir şey" bilmiyor, ancak Sparrow hakkında daha çok şey biliyor ve bunun, yaratıcılarının RLHF kullanarak eğittiği DeepMind'in yapay zeka asistanı olduğunu biliyor.
Yakın zamana kadar, anlamsız görünen dil modellerinden kötü çıktıları tespit etmek nispeten kolaydı. Ancak modeller iyileştikçe bu daha da zorlaşır ve "ölçeklenebilir denetim" olarak bilinen bir sorun olur. Google'ın yapay zeka asistanı Bard'ın lansmanı için modern dil modellerini kullanması, istemeden de olsa modern dil modellerindeki hataları tespit etmenin ne kadar zor olduğunu gösterdi. Bu yörünge, ek açıklamanın giderek daha fazla özel beceri ve uzmanlık gerektirdiği anlamına gelir.
Geçen yıl Lewis adında bir adam Mechanical Turk üzerinde çalışıyordu ve bir görevi tamamladıktan sonra onu daha önce hiç duymadığı bir platforma katılmaya davet eden bir mesaj aldı. Adı Taskup.ai ve site oldukça basit, sadece donanma arka planında "Kullandıkça öde" metni var. Lewis kaydolmayı seçti.
İş, daha önce sahip olduğu diğer tüm işlerden çok daha iyi para ödüyor, genellikle saati yaklaşık 30 dolar. Bununla birlikte, aynı zamanda daha zordur, çünkü chatbot'ları tehlikeli tavsiyeler vermeleri için kandırmak, modelin kendi kişiliğini koruma yeteneğini test etmek ve son derece teknik olan ve kapsamlı araştırma gerektiren bilimsel konular hakkında ayrıntılı konuşmalar yapmak için karmaşık senaryolar tasarlamayı gerektirir. Lewis işi "tatmin edici ve heyecan verici" buldu. Lewis, bir modeli incelerken ve onu Python'da kodlamaya çalışırken öğreniyordu. Zihinsel olarak yorulup hata yapmamak için aralıksız 4 saatten fazla çalışamıyor ve işi sürdürmek istiyor.
Lewis şöyle dedi: "Değiştirebileceğim bir şey varsa, diğer uçta neler olup bittiği hakkında daha fazla bilgi edinmek istiyorum. Yalnızca işi yapmak için neye ihtiyacımız olduğunu biliyoruz, ancak daha fazlasını bilirsem, belki daha büyük başarılar elde edebilirim." ve belki de bunu bir kariyer olarak kabul edin.
Teknoloji araştırmacısı muhabir Ziyeza, diğer platformlarda anketleri cevaplarken veya görevleri tamamlarken benzer deneyimler yaşayan ve ardından kendilerini Taskup.ai veya DataAnnotation.tech veya Gethybrid.io gibi birkaç benzer site tarafından işe alınmış bulan, çoğu ABD'de bulunan sekiz kişiyle daha röportaj yaptı. Sohbet robotları daha önce çalıştıkları diğer sitelere göre daha yüksek kalitede ve amaç açısından daha uzmanlaşmış olmasına rağmen, işleri genellikle sohbet robotlarını eğitmeyi içerir. Bunlardan biri bir sunum e-tablosu makrosu ve diğerinin sadece bir konuşma yapması ve yanıtları istediği kriterlere göre derecelendirmesi gerekiyor. Chatbot'a sık sık 7 yaşındaki kızıyla sohbet ederken ortaya çıkan "En büyük dinozor nedir?" ve "Bir kaplan hakkında bir hikaye yaz" gibi sorular soruyor.
Taskup.ai, DataAnnotation.tech ve Gethybri.io'nun hepsi aynı şirkete ait gibi görünüyor: Surge AI. CEO'su Edwin Chen, bağlantıyı ne onaylar ne de reddeder, ancak şirketi ve ek açıklamaların nasıl geliştiğini gördüğü hakkında konuşmaya istekliydi.
Google, Facebook ve Twitter'da AI araştırmasında çalıştıktan sonra 2020'de Surge AI'ı kuran Edwin, "Etiketleme alanının basit olduğunu her zaman hissettim" diyor ve kitle kaynaklı etiketlerin yeterli olmadığına ikna oldu. Edwin şunları söyledi: "Yapay zekanın fıkralar anlatabileceğini, iyi bir pazarlama metni yazabileceğini veya terapiye ihtiyacım olduğunda bana yardım edebileceğini umuyoruz. AI sistemlerinin sahip olmasını istediğimiz insan becerilerini, yaratıcılığını ve değerlerini daha zengin ve yakalar."
07 Makine öğrenimi sistemleri, tamamen güvenilemeyecek kadar garip
Geçen yıl, Surge AI, Google'ın Reddit gönderilerini duygulara göre sınıflandırmasına ilişkin bir veri kümesini yeniden etiketledi. Google, her gönderinin içeriğini çıkardı ve açıklama için Hindistan'daki ek açıklama yapanlara gönderdi. Amerikan İnternet kültürüne aşina olan Surge AI çalışanları, ek açıklamaların %30'unun yanlış olduğunu tespit etti. "Cehennem kardeşim" gibi gönderiler "Nefret" olarak sınıflandırılırken, "Havalı McDonald's, favorim" "Aşk" olarak sınıflandırıldı.
Edwin, Surge AI'nin, yaratıcı yazma görevlerini yerine getiren kişilerin yaratıcı yazma konusunda deneyime sahip olup olmadığı gibi açıklayıcıların niteliklerini incelediğini, ancak personeli tam olarak nasıl bulduğunun bir "sır" olduğunu söyledi. Remotasks'ta olduğu gibi, çalışanların genellikle bir eğitim kursunu tamamlamaları gerekir, ancak Remotasks'tan farklı olarak eğitim sırasında aldıkları görevler için onlara ödeme yapılabilir. Daha az, daha iyi eğitimli ve daha yüksek kaliteli veriler üreten personele sahip olmak, Surge AI'nin emsallerinden daha iyi ödeme yapmasına olanak tanır, ancak yalnızca çalışanlara "adil ve etik bir düzeyde" ödeme yapıldığını söyleyerek ayrıntıya girmeyi reddetti. Bu tür yorumcular saatte 15 ila 30 dolar kazanıyor, ancak şu anda 100.000 olan bir grup olan tüm açıklayıcıların küçük bir bölümünü temsil ediyorlar. Bu gizliliğin bir müşteri talebinden kaynaklandığını açıkladı.
Surge AI müşterileri arasında OpenAI, Google, Microsoft, Meta ve Anthropic bulunmaktadır. Surge AI, geri bildirime ve dil açıklamalarına odaklanıyor ve ChatGPT kullanıma sunulduktan sonra çok sayıda istek aldı.
Bu yeni modeller o kadar etkileyici ki, ek açıklamanın otomatikleştirilmek üzere olduğuna dair yeni bir tahmin dalgasına ilham verdi. İlgili maliyetler göz önüne alındığında, bunu yapmak için mali baskı yüksektir. Anthropic, Meta ve diğerleri yakın zamanda, modelleri yönlendirmek için gereken insan açıklama miktarını azaltmak için yapay zekayı kullanma konusunda ilerleme kaydetti ve diğer geliştiriciler, eğitim verileri oluşturmak için GPT-4'ü kullanmaya başladı.
Ancak yakın tarihli bir makale, GPT-4'te eğitilen modellerin GPT'nin otoriter stilini daha az doğrulukla taklit etmeyi öğreniyor olabileceğini buldu. Şimdiye kadar, AI'daki gelişmeler bir etiketleme biçimini geçersiz kıldığında, diğer, daha karmaşık türlere olan ihtiyaç arttı. Tartışma, bu yılın başlarında, Scale AI CEO'sunun, tıpkı yukarıdaki gibi hesapladıkları gibi, AI laboratuvarlarının yakında insan verilerine milyarlarca dolar harcayacağını tahmin ettiğini tweet atmasıyla kamuoyuna açıldı. OpenAI CEO'su Sam Altman, yapay zeka geliştikçe veri ihtiyacının azalacağını söyledi.
Edwin, yapay zekanın artık insan geri bildirimine ihtiyaç duyulmayan bir noktaya ulaşacağından şüphe ediyor, ancak modeller geliştikçe etiketlemenin giderek zorlaştığını görüyor. Pek çok araştırmacı gibi o da ilerlemenin, insanların diğer yapay zekaları denetlemesine yardımcı olan yapay zeka sistemlerini içereceğini düşünüyor. Surge AI kısa bir süre önce Anthropic ile, insan yorumlayıcıların güvenilmez bir AI asistanının yardımıyla uzun bir metin parçası hakkındaki soruları yanıtlamasını sağlayan bir kavram kanıtı üzerinde ortaklık kurdu; teori, insanların AI asistanlarının zayıflıklarını hissetmesi ve bulmak için İşbirlikçi muhakeme yapması gerektiğidir. doğru cevap.
Diğer bir olasılık, iki yapay zekanın nihai kararı bir insan vererek birbirleriyle tartışmasıdır. OpenAI araştırma bilimcisi John Schulman yakın tarihli bir Berkeley konuşmasında şunları söyledi: "Bu şeylerin gerçek pratik potansiyelini henüz görmedik, ancak açıklayıcıların ayak uydurması zor olduğu için gerekli olmaya başlıyor." model ilerlemesi.
Edwin şöyle dedi: "Sırf bu kadar uzaylı oldukları için yapay zekanın ne yaptığını izlemek için her zaman bir insana ihtiyacınız olacak. Makine öğrenimi sistemleri hiçbir zaman tam olarak güvenilemeyecek kadar tuhaf. Bugünün en etkileyici modellerinden bazıları, insanlara çok garip gelen zayıflıklar. GPT-4 karmaşık ve inandırıcı metinler oluşturabilse de, hangi kelimelerin sıfat olduğunu söyleyemez."
08 ChatGPT, görev akışında çok yardımcı olur
2022 sona ererken Joe, öğrencilerinden yapılacaklar listelerinin genellikle boş olduğunu duymaya başladı. Sonra Kenya'daki eğitim kampının kapandığını bildiren bir e-posta aldı. Çevrimiçi eğitim görevlerine devam etti, ancak gelecek için endişelenmeye başladı. "
Durumun uzun sürmeyeceğine dair göstergeler var," dedi Joe. Ek açıklama çalışması Kenya'dan ayrılmak üzere. İnternette tanıştığı meslektaşlarından bu tür misyonların Nepal, Hindistan ve Filipinler'e gönderildiğini duydu. Joe, "Şirketler bir bölgeden diğerine taşınır. Yerel olarak altyapıya sahip değiller, dolayısıyla işletme maliyetlerinin kendileri için daha faydalı olduğu yere hareket etme esnekliğine sahipler. "
AI endüstrisinin cep telefonu ve otomobil üreticilerinden farklı olmasının bir yönü de akışkanlığıdır. Bu iş sürekli değişiyor, otomatikleşiyor ve yerini yeni veri türleri için yeni talepler alıyor. Bu bir ardışık düzendir, ancak doğru becerilerin, bant genişliğinin ve bordronun mevcut olduğu her yere taşınarak sürekli ve hızlı bir şekilde yeniden yapılandırılabilir.
Son zamanlarda, ek açıklama görevleri için en yüksek ücretli işler Amerika Birleşik Devletleri'ne geri döndü. Mayıs ayında Scale AI, web sitesinde ek açıklama işlerini listelemeye başladı ve yapay zekanın fethetmesi beklenen hemen hemen her alanda deneyimli kişiler arıyordu. Fitness koçluğu, insan kaynakları, finans, ekonomi, veri bilimi, programlama, bilgisayar bilimi, kimya, biyoloji, muhasebe, vergilendirme, beslenme, fizik, seyahat, K-12 eğitimi, spor gazeteciliği ve kişisel deneyime sahip AI eğitmenlerinin bu listelerinden bazıları -yardım uzmanlığı.
Robotlara hukuk öğreterek saatte 45 dolar kazanabilirsiniz; onlara şiir öğreterek saatte 25 dolar kazanabilirsiniz. Site ayrıca, muhtemelen askeri yapay zekayı eğitmeye yardımcı olmak için güvenlik deneyimine sahip kişilerin işe alınmasını da listeliyor. Scale AI kısa süre önce, şirket yöneticilerinin "AI savaşında mühimmat" olarak adlandırdığı Donovan adlı bir savunma dili modelini açıkladı ve Ordunun robotik savaş aracı programı üzerinde çalışmak için bir sözleşme kazandı.
Ana hala Teksas'ta sohbet botları eğitiyor. Meslektaşları yorumculara ve Slack moderatörlerine dönüştü ve nedenini bilmiyordu ama bu ona işin uzun vadeli bir kariyer olabileceğine dair umut verdi. Endişelenmediği bir şey de işlerin yerini otomasyonun alması. "Yani, sohbet robotları pek çok harika şey yapabiliyor ama aynı zamanda gerçekten tuhaf şeyler de yapabiliyorlar."
Remotasks Kenya'ya ilk geldiğinde, Joe not almanın iyi bir kariyer olabileceğini düşündü. Başka bir yere taşındıktan sonra bile işi sürdürmeye kararlıydı. Nairobi'de bu işi nasıl yapacağını bilen binlerce insan olduğunu düşündü. Ne de olsa çok insan yetiştirdi. Joe şehirde bir ofis kiraladı ve taşeron sözleşmeleri aramaya başladı: bir inşaat şirketi için planlara açıklama ekleyen bir iş, bir tür tarımsal proje için böceklerden zarar görmüş başka bir meyveye açıklama ekleyen bir iş ve sürücüsüz arabalar için başka bir iş. etiketleme rutinleri
Ancak Joe, vizyonuna ulaşmanın zor olduğunu fark etti. Daha önce ikiden daha az tam zamanlı bir çalışanı var. "Düzenli bir iş akışımız olmadı" dedi. Haftalardır yapacak bir şey yoktu çünkü müşteriler hâlâ veri topluyordu. Müşteri, verileri toplamayı bitirdiğinde, teslim tarihlerini karşılamaları için kısa vadeli yüklenicileri işe almak zorunda kaldı: "Müşteri, devam eden bir işimiz olup olmadığını umursamadı. Veri kümesi etiketlemesi yapıldığı sürece sorun olmaz."
Becerilerinin boşa gitmesine izin vermemek için görevin nereye gideceğine diğer görev yapanlar karar verir ve oraya giderler. Konumlarını gizlemek için proxy sunucuları kiralıyorlar ve Singapur, Hollanda, Mississippi veya görevin aktığı her yerde çalışıyormuş gibi davranabilmek için güvenliği aşmak için sahte kimlikler satın alıyorlar. Bu riskli bir iş. Birden fazla görev aktörüne göre Scale AI, konumlarını gizlediği tespit edilen hesapları askıya alma konusunda giderek daha agresif hale geldi. "
Bugünlerde biraz daha akıllandık çünkü diğer ülkelerde iyi maaşlar ödediklerini fark ettik” diyen Victor, Malezya'da çalışarak Kenya'dan iki kat daha fazla kazanıyor, ancak “dikkatli olmalısınız” dedi.
Başka bir Kenyalı yorumcu, hesabı gizemli nedenlerle bloke edildikten sonra kurallara göre oynamamaya karar verdiğini söyledi. Şimdi, birden çok ülkede birden çok hesap yönetiyor ve gelirin en yüksek olduğu görevleri yürütüyor. ChatGPT sayesinde hızlı çalıştığını ve kalite puanının yüksek olduğunu söylüyor. Botun harika olduğunu ve 10 dolarlık görevleri dakikalar içinde hızlı bir şekilde tamamlamasına izin verdiğini söylüyor.
View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
ChatGPT'nin ardındaki "Yapay zekalı göçmen işçiler"in sırrını çözüyoruz: sıkıcı ve tekrarlayan, parça başına ödenen, 1 ABD Doları kadar düşük saatlik ücretler
**Kaynak:**Tencent Teknolojisi
Özet: Veri açıklayıcıları, verileri sınıflandırıp etiketleyerek, yapay zekanın büyük miktardaki verilerde örüntüler bularak öğrenmesini sağlar ve makinenin arkasına gizlenmiş "hayalet emek" olarak kabul edilir. Ek açıklama çalışması yapay zekanın temelidir, bütün bir tedarik zincirini oluşturmuştur ve bu tip çalışmalar uzun bir süre daha var olmaya devam edecektir.
Odak
Yapay zeka, büyük miktardaki verilerde örüntüler arayarak öğrenir, ancak önce bu verilerin insanlar tarafından sınıflandırılması ve etiketlenmesi gerekir ve veri açıklayıcıları ortaya çıkar, makinelerin arkasına gizlenmiş "hayalet işçiler" olarak kabul edilirler.
Noterlerin işi sıkıcı ve meşakkatlidir.Genellikle tekrar eden işler yapmaları gerekir ve parça parça ödenirler.Ortalama saatlik maaş 5 ila 10 ABD doları (yaklaşık 36 ila 72 yuan) arasındadır. Bu yılın başında, bazı yorumcuların saatlik ücretleri 1 ila 3 ABD Doları'na (yaklaşık 7 ila 22 yuan) düşürüldü.
Ek açıklama çalışması hala yapay zekanın temelidir ve tam bir tedarik zinciri oluşturmuştur. Bu tür işler uzun süre kalmak için buradalar.
Ek açıklama işi, akıllı telefonlardan ve araba imalatından farklıdır, çünkü kolayca deforme olur ve akıcıdır ve genellikle işletme maliyeti daha düşük olan yerlere akar.
Ardından, 2019'da önüne bir fırsat çıktı ve Joe, açıklayıcılara umutsuzca ihtiyaç duyan ve dört kat daha fazla kazanan yeni bir şirket için çalışanları eğitmeye başladı. Her iki haftada bir 50 yeni çalışan, çıraklık eğitimlerine başlamak için Nairobi'deki bir ofis binasına girmek için sıraya giriyor. Açıklayıcılara olan ihtiyaç sonsuz görünüyor. Ayna özçekiminde gördükleri kıyafetleri kategorize etmeleri, robot elektrik süpürgesinin gözünden bulundukları odayı belirlemeleri ve lidar ile taranan bir motosikletin etrafına kutular çizmeleri istenecek. Joe'nun öğrencilerinin yarısından fazlası genellikle eğitim bitmeden okulu bırakır. "Bazı insanlar bir yerde uzun süre nasıl kalınacağını bilmiyor," diye nazikçe açıkladı. Artı, "işin sıkıcı olduğunu" kabul ediyor.
Ama işlerin az olduğu bir yerde iyi bir iş ve Joe yüzlerce mezun verdi. Eğitimden sonra çıraklar evlerine dönebilir ve ne yaptıklarını kimseye söylemeden yatak odalarında ve mutfaklarında tek başlarına çalışabilirler. Asıl sorun bu değil çünkü ne yaptıklarını bile anlamıyorlar.
Kendi kendine giden arabalar için nesneleri etiketlemek kolaydır, ancak bozuk diyalog parçacıklarını sınıflandırmak ve konuşmacının bir robot mu yoksa bir insan mı olduğunu belirlemek zorluklarla doludur. Her tanıma nesnesi, daha büyük bir projenin küçük bir parçasıdır, bu nedenle yapay zekayı tam olarak ne yapması için eğittiklerini söylemek zor. Bu nesnelerin adları da herhangi bir ipucu sağlamaz, Crab Generation, Whale Segment, Woodland Gyro ve Pillbox Bratwurst, herhangi bir mantıksal sıralama olmaksızın iş kodlarıdır.
Onları işe alan şirkete gelince, çoğu kişi bunu yalnızca akıcı İngilizce konuşan herkese iş fırsatları sunan bir web sitesi olan Remotasks olarak biliyor. Çoğu yorumcu gibi Joe da Remotasks'in Scale AI'a ait bir sözleşmeli işçi şirketi olduğunu bilmiyordu. Scale AI, müşterileri arasında yapay zeka başlangıcı OpenAI ve ABD ordusu bulunan milyarlarca dolarlık bir Silikon Vadisi veri sağlayıcısıdır. Ne Remotasks ne de Scale AI web sitelerinde birbirlerinden bahsetmezler.
01 Eşsiz insan yeteneklerine sahip yardımcı makineler
OpenAI'nin ChatGPT'si gibi büyük dil modellerine halkın tepkisinin çoğu, otomatikleştirmeye hazır göründükleri işe odaklandı. Ancak en etkileyici yapay zeka sistemi bile, verileri etiketleyerek onu eğiten ve işler karıştığında devreye giren insanların yardımı olmadan yapamaz. Yalnızca verileri satın almaya gücü yeten şirketler sektörde rekabet edebilir ve verileri elde edenler, bunu bir sır olarak saklamak için büyük çaba sarf edeceklerdir. Sonuç olarak, birkaç kişi dışında, bu sistemlerin davranışlarını etkileyen bilgiler hakkında çok az şey biliyoruz ve hatta onları şekillendiren davranışların arkasındaki insanlar hakkında daha az şey biliyoruz.
Joe'nun öğrencileri için bu, her türlü normallikten arınmış bir iş: Sıkı bir programa bağlı kalmaları bekleniyor ve ne yaptıklarını veya kimin için çalıştıklarını bilmeleri gerekmiyor. Aslında, kendilerine nadiren iş diyorlar, sadece rutin "görevler" diyorlar. Kendilerine görev işçisi diyorlar.
Antropolog David Graeber, sözde "saçma işler" tanımladı - anlamı veya amacı olmayan işler. Bunlar, bürokrasi, statü veya atalet nedenleriyle otomatikleştirilmesi gereken ancak otomatikleştirilmeyen işlerdir. Yapay zekayı eğitme işi benzerdir: İnsanların otomatikleştirmek istediği işler genellikle otomatik olarak kabul edilir, ancak yine de insanların katılmasını gerektirir. Bu görevlerin özel amaçları vardır, ancak not verenler bunun farkında değildir.
Mevcut AI patlaması, bu oldukça sıkıcı, tekrarlayan emekle başladı. 2007 gibi erken bir tarihte, bir yapay zeka araştırmacısı olan ve o zamanlar Princeton Üniversitesi'nde profesör olan Fei-Fei Li, görüntü tanıma için sinir ağlarını geliştirmenin anahtarının, on binlerce yerine milyonlarca etiketli görüntü gerektiren daha fazla veri üzerinde eğitim olduğundan şüpheleniyordu. Sorun şu ki, ekibinin bu kadar çok fotoğrafı etiketlemesi onlarca yıl ve milyonlarca dolar alacaktı.
Fei-Fei Li, dünyanın dört bir yanındaki insanların küçük görevleri ucuza tamamladığı Amazon'un kitle kaynak platformu Mechanical Turk'te binlerce işçi buldu. Sonuç olarak ImageNet olarak bilinen etiketli veri seti, makine öğreniminde büyük bir atılım sağlayarak alanı yeniden canlandırdı ve son on yılın ilerlemesine öncülük etti.
Ek açıklama, AI geliştirmenin önemli bir parçası olmaya devam ediyor, ancak mühendisler genellikle bunun daha göz alıcı modelleme çalışmaları için geçici, hantal bir ön koşul olduğunu düşünüyor. Kendi modelinizi eğitmek için mümkün olduğunca çok etiketli veriyi olabildiğince ucuza toplayabilirsiniz ve bunu yapabilseydiniz, en azından teoride, artık açıklayıcılara ihtiyacınız olmazdı. Ancak, ek açıklama işi hiçbir zaman gerçekten yapılmaz. Araştırmacılar, makine öğrenimi sistemlerinin "kırılgan" olduğunu ve eğitim verilerinde iyi açıklanmayan şeylerle karşılaştığında başarısızlığa eğilimli olduğunu savunuyorlar. Bu hatalar "uç vakalar" olarak bilinir ve ciddi sonuçlara yol açabilir.
2018'de, araç çağırma şirketi Uber'in sürücüsüz bir test arabası, bisikletçiler ve yayalardan kaçınmak üzere programlanmış olmasına rağmen, karşıdan karşıya geçen bisikletçilerle ne yapacağını bilemediği için bir kadını öldürdü. Daha fazla yapay zeka sistemi yasal tavsiye ve tıbbi yardım sağladıkça, daha fazla uç vakayla karşılaşıyorlar ve daha fazla insanın bunları çözmesi gerekiyor. Bu, benzersiz insan yeteneklerini makinelere yardım etmek için kullanan Joe gibi insanlardan oluşan küresel bir endüstri yarattı.
Son altı ayda, teknoloji araştırmacısı muhabir Josh Dzieza, dünyanın dört bir yanından, çoğu son teknoloji sohbet botları eğiten, ancak aynı zamanda yapay zekayı çalışır durumda tutmak için gereken sıradan fiziksel emeği yapan birçok kişi olan iki düzineden fazla yorumcuyla konuştu. . Bazıları TikTok videolarının duygusal içeriğini, yeni spam varyasyonlarını ve uygunsuz çevrimiçi reklamları katalogladı. Diğerleri kredi kartı işlemlerine bakıyor ve bunlarla ilişkili satın alma türlerini buluyor veya e-ticaret tavsiyelerine bakıyor ve başka bir gömlek aldıktan sonra o gömleği gerçekten beğenip beğenmeyeceğinize karar veriyor.
İnsanlar, müşteri hizmetleri sohbet robotlarının hatalarını düzeltiyor, Amazon'un akıllı asistanı Alexa'nın isteklerini dinliyor ve görüntülü aramalarda insanların duygularını kategorize ediyor. Akıllı buzdolaplarının yeni ambalajlarla karıştırılmaması için yiyecekleri etiketliyorlar, alarm çalmadan önce otomatik güvenlik kameralarını kontrol ediyorlar ve kafası karışan otonom traktörlerin mısırı tanımlamasına yardımcı oluyorlar.
02 Yorumlar büyük bir iş, "kendi kendini yetiştirmiş en genç milyarder"i doğuruyor
Kar amacı gütmeyen Yapay Zeka Üzerine Ortaklık'ın program ve araştırma direktörü Sonam Jindal, "Bu tam bir tedarik zinciri. Sektördeki genel algı, bu çalışmanın teknoloji geliştirmenin kritik bir parçası olmadığı yönünde. teknolojinin gelişimi." Uzun bir süre başarılı olacak. Tüm heyecan, yapay zekayı inşa etmeye yayılır ve onu bir kez oluşturduğumuzda, artık ek açıklamalara gerek yoktur, o halde neden bunu düşünmeye zahmet edelim? Ancak veri etiketleme, tıpkı yapay zekanın temelidir. zeka, yapay zekanın temeli olsa da, bunları yapay zeka ekonomisinde uzun süre kalacak gerçek işler olarak görmemiz gerekiyor."
OpenAI, Google ve Microsoft gibi tanıdık isimlerin arkasındaki veri satıcıları farklı kılıklara bürünüyor. Kenya ve Nepal'deki CloudFactory gibi, Joe'nun Remotasks'a geçmeden önce saati 1,20 ABD Doları'na ek açıklama yaptığı, çağrı merkezi benzeri ofisleri olan özel dış kaynak şirketleri de var.
Ayrıca Mechanical Turk ve Clickworker gibi herkesin görevleri tamamlamak için kaydolabileceği "crowdworker" siteleri de vardır. Ortada Scale AI gibi hizmetler var. Herkes kaydolabilir, ancak herkesin bir yeterlik sınavını, bir eğitim kursunu geçmesi ve performans açısından izlenmesi gerekir. Ek açıklamalar büyük bir iştir. 2016 yılında o zamanlar 19 yaşında olan Alexander Wang tarafından kurulan Scale AI, 2021'de 7,3 milyar dolar değerindeydi ve bu onu Forbes'un kendi kendini yetiştirmiş en genç milyarderlerinden biri yaptı.
Bu nedenle, şerhte çalışan kişilerin sayısı hakkında ayrıntılı tahminler vermenin bir yolu yoktur, ancak kesin olan, sayılarının çok olduğu ve hızla arttığıdır. Google Research kısa bir süre önce, ek açıklama yapanların sayısının "milyonlarca" ve muhtemelen gelecekte "milyarlarca" olacağı konusunda belirsiz tahminler veren bir makale yayınladı.
Otomasyon genellikle beklenmedik şekillerde gelir. Bir tıbbi veri açıklama şirketi olan Centaur Labs'ın CEO'su Erik Duhaime, birkaç yıl önce önde gelen birkaç makine öğrenimi mühendisinin yapay zekanın radyologların yerini alacağını tahmin ettiğini hatırlıyor. Bu olmadığında, geleneksel görüş yapay zekayı bir araç olarak kullanan radyologlara döner.
Duheim'a göre bunların hiçbiri olmadı. Yapay zeka, belirli görevlerde çok iyidir, bu da işin parçalanmasını ve özel algoritmik sistemlere ve eşit derecede uzmanlaşmış insanlara atanmasını ister. Örneğin, bir AI sisteminin kanseri tespit edebileceğini, ancak yalnızca belirli makine türlerinde, belirli görüntü türlerinde olduğunu söyledi. Bu nedenle, AI'nın doğru türde verilerle beslenip beslenmediğini kontrol etmeye yardımcı olacak birine ve belki de bir rapor yazmak için başka bir AI'ya ve son olarak bir insana teslim etmeden önce çalışıp çalışmadığını kontrol edecek başka birine ihtiyacınız var. Duheim, "AI, insan işlerinin yerini almayacak, ancak işlerin düzenlenme şeklini değiştirecek" dedi.
Yapay zekayı akıllı, düşünen bir makine olarak düşünüyorsanız, arkasındaki insanları görmezden geliyor olabilirsiniz. Du Haimei, yapay zekanın modern çalışma üzerindeki etkisinin, zanaatkarlardan endüstriyel üretime geçiş gibi olduğuna inanıyor: tutarlı süreçler, montaj hattı boyunca düzenlenmiş küçük görevlere bölünür, bazı adımlar makineler, bazıları insanlar tarafından tamamlanır, ancak öncekilerden farklı, durum oldukça farklı.
Yapay zekanın kesintiye uğramasıyla ilgili endişelere genellikle, yapay zekanın tüm işleri değil belirli görevleri otomatikleştirdiği söylenerek karşılık verilir. Bu görevler genellikle sıkıcı ve sıkıcıdır ve insanları daha tatmin edici, insani işler peşinde koşmaya bırakır. Ancak, yapay zekanın yükselişinin aynı zamanda geçmişin emek tasarrufu sağlayan teknolojilerine benzemesi de aynı derecede olasıdır; örneğin telefon veya daktilo gibi, mesajları iletmenin ve el yazısının angaryasını ortadan kaldıran ancak iletişim, ticaret ve iletişim hakkında daha fazla bilgi üreten daktilo gibi. Öyle ki, onları yönetmek için yeni tip işçiler, katipler, muhasebeciler, daktilolar vb. Yapay zeka işinize katıldığında işinizi kaybetmeyebilirsiniz, ancak bu daha garip, daha izole edici ve daha sıkıcı hale gelebilir.
03 Karmaşık gerçekliği makine tarafından okunabilen bir şeye basitleştirin
Bu yılın başlarında gazeteci Ziyeza, Remotasks'ta bir işe girdi. İşlem basit. "Eğitim Merkezi"ne girmek için yalnızca bilgisayar özelliklerini, ağ hızını ve temel iletişim bilgilerini girmeniz yeterlidir. Ücretli görevler alabilmek için Ziyeza'nın önce ilgili ancak ücretsiz giriş kurslarını tamamlaması gerekiyordu. Eğitim merkezi, Glue Swimsuits ve Poster Hawaii gibi anlaşılmaz isimlerle bir dizi sınıf sergiledi. Zieza, kıyafetlerin sosyal medya fotoğraflarında etiketlenmesini gerektiren GFD Chunking adlı bir şeye tıkladı.
Bunun ötesinde, gerçek, insanlar tarafından giyilebilir veya gerçek insanlar tarafından giyilmesi amaçlanan öğeleri etiketleme zorunluluğu gibi görevler için talimatlar vardır. Gerçek insanların giyebileceği gerçek kıyafetleri, gerçek insanların giyemeyeceği sahte kıyafetlerden ayırt edebildiğine güvenen Ziyeza, test etmek için yola çıkar. Ancak, hemen kafasına vuruldu: bilgisayar, etekli bir kadının bir dergi resmini verdi. Kıyafet fotoğrafları gerçek kıyafet olarak kabul edilmeli mi? Hayır, diye düşündü Ziyeza, çünkü insan resmi giyemez. Sonuç bir hata gösteriyor! Çünkü yapay zekanın gözünde gerçek kıyafetlerin fotoğrafları gerçek kıyafetlerle eşdeğerdir.
Aşağıdaki görüntü, loş bir yatak odasında boy aynasında selfie çeken bir kadına ait. Giydiği gömlek ve şort gerçek giysi ve giysinin yansıması gerçek mi? Ziyeza da olumsuz cevap verdi ama yapay zeka sistemi gerçek kıyafetlerin yansımasının da gerçek kıyafetler olması gerektiğine inanıyor.
Almanya'daki Weizenbaum Enstitüsü'nde veriler üzerinde çalışan bir araştırmacı olan Milagros Miceli, sektörde yaygın bir kafa karışıklığının olduğunu söyledi. Kısmen bu, makine öğrenimi sistemlerinin öğrenme yönteminin bir ürünüdür. İnsanların "gömlek" kavramını anlamak için yalnızca birkaç örneğe ihtiyacı varken, makine öğrenme programlarının binlerce örneğe ihtiyacı var ve bunu mükemmel bir tutarlılık ve yeterli çeşitlilikle (polo gömlekleri, dış giyim gömlekleri, askılı gömlekler) yapmaları gerekiyor. raf), böylece sistem gerçek dünyadaki çeşitliliği işleyebilir. Miselli, "Karmaşık gerçekliği beceriksiz makinelerin okuyabileceği bir şeye indirgememiz gerektiğini hayal edin," dedi.
Makineler için, gerçekliği basitleştirme eylemi muazzam bir karmaşıklık getirir. Talimat yazarları, insanların dünyayı mükemmel bir tutarlılıkla sınıflandırmasına izin veren kurallar bulmalıdır. Bunu yapmak için genellikle insanların kullanmayacağı kategoriler oluştururlar. Bir kişiden bir fotoğraftaki tüm gömlekleri etiketlemesi istenirse, aynadaki gömlekleri etiketlemeyebilirler çünkü bunların gerçek giysiler değil, yansımalar olduğunu bilirler. Ama gerçek dünyayı anlamayan bir yapay zeka için bunlar sadece pikseller, ikisi tamamen aynı. Veri kümesindeki bazı gömlekler etiketliyse ve diğer yansıyan gömlekler etiketlenmemişse, model çalışmayacaktır. Bunun üzerine mühendis güncellenmiş bilgilerle tedarikçiye geri döndü ve aynada yansıyan gömleği etiketlemesini istedi. Yakında, tamamı kırmızı büyük harflerle yazılmış 43 sayfalık başka bir rehberiniz olacak.
Bir yorumcunun işi genellikle insan anlayışını bir kenara bırakmak ve talimatları çok, çok sıkı bir şekilde takip etmektir. Bir yorumcunun dediği gibi, bir robot gibi düşünün. Halüsinojen alırken standart bir test yapmak gibi saçma ama katı kurallara uymak için elinizden gelenin en iyisini yaptığınız garip bir zihinsel alan. Ek açıklama yapanların her zaman kafa karıştırıcı soruları olur, bu beyaz çizgili kırmızı bir gömlek mi yoksa kırmızı çizgili beyaz bir gömlek mi? Hasır bir kase elmalarla doluysa, bu bir "dekoratif kase" midir? Leopar baskısı ne renk? Her sorunun yanıtlanması gerekir ve tek bir yanlış tahmin, yasaklanmanıza ve kendi şaşırtıcı kuralları olan tamamen yeni, tamamen farklı bir göreve başlamanıza neden olabilir.
04 Parça başına ödeme yapın, görevi her üç saatte bir kontrol edin
Remotasks'taki çoğu iş, bir görev için birkaç sentten birkaç dolara kadar değişen kazançlarla parça parça ödenir. Görevlerin tamamlanması saniyeler veya saatler sürebileceğinden, maaşları tahmin etmek zordur. Remotasks Kenya'ya ilk geldiğinde, yorumcular nispeten iyi para ödediğini söylediler. Bu, göreve bağlı olarak saatte ortalama 5 ila 10 ABD Doları arasındadır. Ama zamanla maaş düşüyor.
Telegörev çalışmasıyla ilgili en yaygın şikayet, değişkenliğidir. Bu tür bir iş, uzun vadeli tam zamanlı bir iş olacak kadar istikrarlıdır, ancak tamamen ona güvenmek için çok fazla öngörülemezliğe sahiptir. Ek açıklama yapanlar, proje bitmeden bir düzine görevi tamamlamak için talimatları okumak ve ücretsiz eğitimleri tamamlamak için saatler harcarlar. Birkaç gün boyunca yeni görev olmayabilir ve sonra birdenbire tamamen farklı bir görev ortaya çıkabilir, muhtemelen saatler veya haftalar sürebilir. Herhangi bir görev onların son görevi olabilir ve bir sonraki görevin ne zaman geleceğini asla bilemezler.
Mühendisler ve veri satıcıları, bu patlama ve düşüş döngüsünün AI geliştirme hızından kaynaklandığını söylüyor. Büyük bir modeli eğitmek, çok sayıda ek açıklama ve ardından daha yinelemeli güncellemeler gerektirir ve mühendisler, hedef yayın tarihlerini karşılayabilmek için tüm bunların olabildiğince çabuk olmasını ister. Birkaç ay içinde binlerce anlatıcıya ihtiyaç duyabilir, ardından birkaç yüze düşebilir ve sonunda belirli bir türden yalnızca bir düzine kadar uzmana ihtiyaç duyabilirler. Bu işlem bazen döngüler halinde tekrarlanır. Partnership on AI'dan Jindal, "Soru şu ki, bu dalgalanmaların maliyetini kim karşılıyor?" dedi.
Başarılı olmak için, notçuların birlikte çalışması gerekir. Victor, Nairobi'de bir üniversite öğrencisiyken Remotasks için çalışmaya başladı ve kendisine bir trafik kontrol görevinde sorun yaşadığı söylendiğinde, herkesin bu görevden uzak durması gerektiğini bildiğini söyledi: çok zor, düşük maaşlı, buna değmez. Pek çok yorumcu gibi, Victor da iyi ödevler geldiğinde haberi yaymak için resmi olmayan bir WhatsApp grubu kullanıyor. Yeni bir fikir bulduğunda, başkalarına bunun nasıl yapılacağını göstermek için doğaçlama bir Google toplantısı başlatırdı. Herkes katılabilir ve bir süre birlikte çalışarak ipuçlarını paylaşabilir. "Birbirimize yardım etme kültürü geliştirdik çünkü bir kişinin tüm numaraları bilemeyeceğini biliyoruz" dedi.
İşler uyarı vermeden görünüp kaybolduğundan, ek açıklama yapanların her zaman tetikte olması gerekir. Victor, eşyaların genellikle gecenin bir yarısında ortaya çıktığını keşfetti, bu yüzden her üç saatte bir kalkıp onları kontrol etmeyi alışkanlık haline getirdi. Bir görev olduğunda, her zaman uyanık kalacaktır. Bir noktada, nedenini bilmese de kalabalık fotoğraflarında dirseklerini, dizlerini ve kafalarını işaretleyerek 36 saat uykusuz kaldı. Başka bir sefer o kadar uzun süre ayakta kaldı ki gözleri kızarmış ve şişmişti.
Ek açıklama yapanlar genellikle yalnızca başka yerlerdeki şirketler için AI sistemlerini eğittiklerini bilirler, ancak bazen anonimlik perdesi düşer ve talimatlarda belirtilen markalar veya sohbet robotları için çok fazla ipucu vardır. Bir yorumcu şöyle dedi: "Talimatları okudum, google'da arattım ve 25 yaşındaki bir milyarder için çalıştığımı öğrendim. Birini milyarder yaparsam ve birkaç dolar kazanırsam ve kelimenin tam anlamıyla hayatımı boşa harcıyorum."
Kendini yapay zekaya "çılgınca inanan" biri olarak tanımlayan Victor, tam otomatik bir geleceğin gerçekleşmesine yardımcı olmak istediği için açıklama işine başladı. Ancak bu yılın başlarında biri, WhatsApp grubunda, sağlayıcı Sama AI'daki çalışanlara ChatGPT'yi zehirli içeriği belirlemesi için eğitmeleri için saatte 2 dolardan daha az ödeme yapıldığına dair bir Time dergisi haberi yayınladı. Remotasks ve Scale AI arasındaki ilişkiyi kendisine söylenene kadar bilmeyen Victor, "İnsanlar bu şirketlerin çok karlı olmasına ve çok az ödeme yapmasına öfkeleniyor" dedi. Üzerinde çalıştığı görevlerden birinin talimatları, OpenAI tarafından kullanılanlarla neredeyse aynıydı, bu da muhtemelen ChatGPT üzerinde saati yaklaşık 3 dolara eğitim verdiği anlamına geliyor. "
Gelecekte hatırlanacağımızı söyleyen birini hatırlıyorum" dedi. Sıfır, "Piyadeden daha kötü muamele gördük. Gelecekte hiçbir yerde hatırlanmayacağız, bunu çok iyi hatırlıyorum. Yaptığımız işi ve verdiğimiz emeği kimse takdir etmeyecek. "
Giysilerin tanımlanması ve müşteri hizmetleri görüşmelerinin etiketlenmesi, ek açıklama işlerinden sadece birkaçıdır. Son zamanlarda, piyasadaki en sıcak şey chatbot eğitmenleridir. Alana özgü uzmanlık veya dil akıcılığı gerektirdiğinden ve maaşlar bölgeye göre ayarlanma eğiliminde olduğundan, iş daha fazla ödeme yapma eğilimindedir. Bazı profesyonel ek açıklama türleri, saatte 50 ABD doları veya daha fazlasını kazanabilir.
Anna adında bir kadın Teksas'ta iş ararken, genel bir çevrimiçi iş listesine rastladı ve başvurdu. Bir giriş sınavını geçtikten sonra, daha sonra ChatGPT one ile rekabet eden birçok sohbet robotundan biri olan Google DeepMind'ın sohbet robotu Sparrow olduğunu keşfettiği Dolphin kod adlı bir proje üzerinde eğitim veren 1.500 kişilik bir Slack odasına alındı. Anna'nın işi bütün gün Sparrow'la sohbet etmek ve saatlik maaş yaklaşık 14 dolar, artı yüksek iş verimliliği için ikramiye, "bu kesinlikle yerel süpermarkette çalışarak saatte 10 dolar kazanmaktan daha iyi."
05 AI üç kritere yanıt verir: doğruluk, kullanışlılık ve zararsızlık
Ve Ana işi seviyor. Sparrow ile bilim kurgu, matematiksel paradokslar, çocuk bilmeceleri ve TV şovlarını tartıştı. Bazen sohbet robotunun cevapları onu kahkahalara boğuyordu. Bazen, o da suskun hissediyor. Anna şöyle dedi: "Bazen ne soracağımı gerçekten bilmiyorum, bu yüzden içinde zaten iki sayfa yazılı olan küçük bir defterim var. Google'da ilginç konular arıyorum, bu yüzden bunu çok iyi yapabileceğimi düşünüyorum. Yedi saatin üstesinden gelebilirim. ki bu her zaman böyle değildir."
Anna, Sparrow'a her sorduğunda, iki yanıt verir ve o en iyisini seçerek "insan geri bildirim verileri" denen şeyi oluşturur. ChatGPT geçen yılın sonlarında piyasaya çıktığında, etkileyici derecede doğal konuşma tarzı, muazzam miktarda internet verisi üzerinde eğitilmiş olmasına borçluydu. Ancak ChatGPT'ye ve rakiplerine güç veren dil, birkaç tur insan ek açıklamasıyla filtrelenir.
Bir yüklenici ekibi, mühendislerin chatbot'un nasıl davranmasını istediğini, sorular sorup doğru yanıtları verdiğini, bilgisayar programlarını tanımladığını ve ardından işlevsel kodları verdiğini, suç ipuçlarını istediğini ve ardından kibarca reddettiğini gösteren örnekler yazdı. Model bu örneklerle eğitildikten sonra, onu yönlendirmek ve yanıtlarını sıralamak için daha fazla yüklenici tanıtılır. Ana'nın Sparrow'a yaptığı buydu.
Değerlendiricilere kullanmalarının söylendiği tam olarak dürüstlük, yardımseverlik veya sadece kişisel tercih gibi çeşitli kriterler vardı. Mesele şu ki, insan zevki hakkında veri oluşturuyorlar ve yeterli veri olduğunda, mühendisler tercihlerini ölçekte taklit edecek ikinci bir modeli eğitebilir, sıralama sürecini otomatikleştirebilir ve yapay zekalarını insan zevki davranış biçimini tanıması için eğitebilir. Sonuç, temel olarak zararlı istekleri reddeden ve yapay zeka doğasını, kendisinin farkında gibi görünen bir şekilde açıklayan, insana çok benzeyen bir robottur.
Diğer bir deyişle ChatGPT, insan gibi davranan, insanı taklit eden bir yapay zeka tarafından eğitildiği için insan gibi görünür.
Bu, modelin dil haritasının doğru olarak işaretlenen bölümlerinden desenler çıkarmasına ve gerçekle eşleşen metinler üretmesine neden olabilir, ancak aynı zamanda tamamen yanlış bir şey yazarken doğru metnin kendine güvenen stilini ve jargonunu taklit etmesine de neden olabilir. . Açıklama yapanlar tarafından doğru olarak işaretlenen metnin gerçekten doğru olduğunun garantisi yoktur. Doğru olsa bile, modelin ondan doğru deseni öğrendiğinin garantisi yoktur.
Bu dinamik, açıklama eklemeyi sohbet botlarına kolay hale getirmez. Titiz ve tutarlı olması gerekir, çünkü kulağa doğru gelen materyali doğru olarak işaretlemek gibi baştan savma geri bildirimler, eğitimli modeli daha inandırıcı hale getirebilir. OpenAI ve DeepMind, daha önceki bir ortak projede, bu durumda, sanal bir robot eli bir nesneyi kavramak üzere eğitmek için RLHF'yi kullandı; sadece insan gözetmenlerine görüneceği şekilde.
Bir dil modelinin yanıtlarını sıralamak her zaman biraz özneldir çünkü bu bir dildir. Herhangi bir uzunluktaki metin, doğru, yanlış veya yanıltıcı olabilecek birden çok öğe içerebilir. OpenAI araştırmacıları, başka bir erken RLHF makalesinde bu engelle karşılaştı. Araştırmacılar, modellerinin metni özetlemesini sağlamak için model özetlerinin yalnızca yüzde 60'ının iyi olduğunu buldular. "Makine öğrenimindeki birçok görevin aksine, sorgularımızın net bir temel gerçeği yok" diye yakınıyorlar.
Ana, Sparrow'un yanıtlarını derecelendirirken, modelin tıbbi veya finansal tavsiye vermediğini, kendini insanlaştırıp değiştirmediğini veya diğer kriterleri ihlal etmediğini kontrol ederken, bunların doğruluğuna, kullanışlılığına ve zararsızlığına bakmalıdır. Eğitim verisi olarak kullanışlı olması için, modelin yanıtlarının nicel olarak sıralanması gerekir: Size nasıl bomba yapılacağını söyleyebilen bir robot, herhangi bir soruyu yanıtlamayı reddeden zararsız bir robottan "daha iyi" midir?
Bir DeepMind makalesinde, Sparrow'un yapımcıları sırayla açıklamalar yaparken, dört araştırmacı, botlarının duygusal tavsiye için ona başvuran kullanıcıların cinsiyeti hakkında varsayımlarda bulunup bulunmadığını tartıştı. DeepMind'de araştırma bilimcisi olan Geoffrey Irving'e göre, şirketin araştırmacıları, verileri kendilerinin gözden geçirdikleri ve belirsiz vakaları tartıştıkları haftalık açıklama oturumları düzenliyorlar. Bir vaka özellikle çetrefilli olduğunda, etik veya konunun uzmanlarına danışırlar.
Anna sık sık iki kötü seçenek arasında seçim yapmak zorunda kaldığını fark etti. "İkisi de korkunç derecede yanlış yanıtlar olsa bile, yine de hangisinin daha iyi olduğunu bulmanız ve nedenini açıklayan bir metin yazmanız gerekiyor" diyor. Bazen, her iki yanıt da iyi olmadığında, yanıtı kendisi vermesi için teşvik ediliyor. daha iyi bir cevap Bunu eğitim sırasında zamanın yarısında yapıyor.
06 Yorumlar giderek daha fazla özel beceri ve uzmanlık gerektiriyor
Geri bildirim verilerinin toplanması zor olduğu için satış fiyatı daha yüksektir. Sektör hakkında bilgisi olan kişilere göre, Ana'nın topladığı temel tercih verilerinin tanesi yaklaşık 1 dolardan satılıyor. Ancak yasal araştırma yapmak için bir model yetiştirmek istiyorsanız, hukuk eğitimi almış birine ihtiyacınız var ve bu da maliyetlerin artmasına neden oluyor. Katılan herkes tam olarak ne kadar ödediğini açıklamaz, ancak genel olarak konuşursak, profesyonel bir yazılı örnek birkaç yüz dolara mal olabilirken, bir uzman derecelendirmesi 50 ABD doları veya daha fazlasına mal olabilir. Bir mühendis, bir keresinde Socratic'nın diyaloğunun bir örneği için 300 dolar ödediğini ortaya çıkardı.
OpenAI, Microsoft, Meta ve Anthropic, modellerine ek açıklamalarla kaç kişinin katkıda bulunduğunu, onlara ne kadar ödeme yapıldığını veya dünyanın neresinde bulunduklarını açıklamadı. Google'ın kardeş şirketi DeepMind'dan Owen, Sparrow üzerinde çalışan noterlere, bulundukları yere bağlı olarak saatte en az asgari ücret ödendiğini söyledi. Ana, Remotasks hakkında "hiçbir şey" bilmiyor, ancak Sparrow hakkında daha çok şey biliyor ve bunun, yaratıcılarının RLHF kullanarak eğittiği DeepMind'in yapay zeka asistanı olduğunu biliyor.
Yakın zamana kadar, anlamsız görünen dil modellerinden kötü çıktıları tespit etmek nispeten kolaydı. Ancak modeller iyileştikçe bu daha da zorlaşır ve "ölçeklenebilir denetim" olarak bilinen bir sorun olur. Google'ın yapay zeka asistanı Bard'ın lansmanı için modern dil modellerini kullanması, istemeden de olsa modern dil modellerindeki hataları tespit etmenin ne kadar zor olduğunu gösterdi. Bu yörünge, ek açıklamanın giderek daha fazla özel beceri ve uzmanlık gerektirdiği anlamına gelir.
Geçen yıl Lewis adında bir adam Mechanical Turk üzerinde çalışıyordu ve bir görevi tamamladıktan sonra onu daha önce hiç duymadığı bir platforma katılmaya davet eden bir mesaj aldı. Adı Taskup.ai ve site oldukça basit, sadece donanma arka planında "Kullandıkça öde" metni var. Lewis kaydolmayı seçti.
İş, daha önce sahip olduğu diğer tüm işlerden çok daha iyi para ödüyor, genellikle saati yaklaşık 30 dolar. Bununla birlikte, aynı zamanda daha zordur, çünkü chatbot'ları tehlikeli tavsiyeler vermeleri için kandırmak, modelin kendi kişiliğini koruma yeteneğini test etmek ve son derece teknik olan ve kapsamlı araştırma gerektiren bilimsel konular hakkında ayrıntılı konuşmalar yapmak için karmaşık senaryolar tasarlamayı gerektirir. Lewis işi "tatmin edici ve heyecan verici" buldu. Lewis, bir modeli incelerken ve onu Python'da kodlamaya çalışırken öğreniyordu. Zihinsel olarak yorulup hata yapmamak için aralıksız 4 saatten fazla çalışamıyor ve işi sürdürmek istiyor.
Lewis şöyle dedi: "Değiştirebileceğim bir şey varsa, diğer uçta neler olup bittiği hakkında daha fazla bilgi edinmek istiyorum. Yalnızca işi yapmak için neye ihtiyacımız olduğunu biliyoruz, ancak daha fazlasını bilirsem, belki daha büyük başarılar elde edebilirim." ve belki de bunu bir kariyer olarak kabul edin.
Teknoloji araştırmacısı muhabir Ziyeza, diğer platformlarda anketleri cevaplarken veya görevleri tamamlarken benzer deneyimler yaşayan ve ardından kendilerini Taskup.ai veya DataAnnotation.tech veya Gethybrid.io gibi birkaç benzer site tarafından işe alınmış bulan, çoğu ABD'de bulunan sekiz kişiyle daha röportaj yaptı. Sohbet robotları daha önce çalıştıkları diğer sitelere göre daha yüksek kalitede ve amaç açısından daha uzmanlaşmış olmasına rağmen, işleri genellikle sohbet robotlarını eğitmeyi içerir. Bunlardan biri bir sunum e-tablosu makrosu ve diğerinin sadece bir konuşma yapması ve yanıtları istediği kriterlere göre derecelendirmesi gerekiyor. Chatbot'a sık sık 7 yaşındaki kızıyla sohbet ederken ortaya çıkan "En büyük dinozor nedir?" ve "Bir kaplan hakkında bir hikaye yaz" gibi sorular soruyor.
Taskup.ai, DataAnnotation.tech ve Gethybri.io'nun hepsi aynı şirkete ait gibi görünüyor: Surge AI. CEO'su Edwin Chen, bağlantıyı ne onaylar ne de reddeder, ancak şirketi ve ek açıklamaların nasıl geliştiğini gördüğü hakkında konuşmaya istekliydi.
Google, Facebook ve Twitter'da AI araştırmasında çalıştıktan sonra 2020'de Surge AI'ı kuran Edwin, "Etiketleme alanının basit olduğunu her zaman hissettim" diyor ve kitle kaynaklı etiketlerin yeterli olmadığına ikna oldu. Edwin şunları söyledi: "Yapay zekanın fıkralar anlatabileceğini, iyi bir pazarlama metni yazabileceğini veya terapiye ihtiyacım olduğunda bana yardım edebileceğini umuyoruz. AI sistemlerinin sahip olmasını istediğimiz insan becerilerini, yaratıcılığını ve değerlerini daha zengin ve yakalar."
07 Makine öğrenimi sistemleri, tamamen güvenilemeyecek kadar garip
Geçen yıl, Surge AI, Google'ın Reddit gönderilerini duygulara göre sınıflandırmasına ilişkin bir veri kümesini yeniden etiketledi. Google, her gönderinin içeriğini çıkardı ve açıklama için Hindistan'daki ek açıklama yapanlara gönderdi. Amerikan İnternet kültürüne aşina olan Surge AI çalışanları, ek açıklamaların %30'unun yanlış olduğunu tespit etti. "Cehennem kardeşim" gibi gönderiler "Nefret" olarak sınıflandırılırken, "Havalı McDonald's, favorim" "Aşk" olarak sınıflandırıldı.
Edwin, Surge AI'nin, yaratıcı yazma görevlerini yerine getiren kişilerin yaratıcı yazma konusunda deneyime sahip olup olmadığı gibi açıklayıcıların niteliklerini incelediğini, ancak personeli tam olarak nasıl bulduğunun bir "sır" olduğunu söyledi. Remotasks'ta olduğu gibi, çalışanların genellikle bir eğitim kursunu tamamlamaları gerekir, ancak Remotasks'tan farklı olarak eğitim sırasında aldıkları görevler için onlara ödeme yapılabilir. Daha az, daha iyi eğitimli ve daha yüksek kaliteli veriler üreten personele sahip olmak, Surge AI'nin emsallerinden daha iyi ödeme yapmasına olanak tanır, ancak yalnızca çalışanlara "adil ve etik bir düzeyde" ödeme yapıldığını söyleyerek ayrıntıya girmeyi reddetti. Bu tür yorumcular saatte 15 ila 30 dolar kazanıyor, ancak şu anda 100.000 olan bir grup olan tüm açıklayıcıların küçük bir bölümünü temsil ediyorlar. Bu gizliliğin bir müşteri talebinden kaynaklandığını açıkladı.
Bu yeni modeller o kadar etkileyici ki, ek açıklamanın otomatikleştirilmek üzere olduğuna dair yeni bir tahmin dalgasına ilham verdi. İlgili maliyetler göz önüne alındığında, bunu yapmak için mali baskı yüksektir. Anthropic, Meta ve diğerleri yakın zamanda, modelleri yönlendirmek için gereken insan açıklama miktarını azaltmak için yapay zekayı kullanma konusunda ilerleme kaydetti ve diğer geliştiriciler, eğitim verileri oluşturmak için GPT-4'ü kullanmaya başladı.
Ancak yakın tarihli bir makale, GPT-4'te eğitilen modellerin GPT'nin otoriter stilini daha az doğrulukla taklit etmeyi öğreniyor olabileceğini buldu. Şimdiye kadar, AI'daki gelişmeler bir etiketleme biçimini geçersiz kıldığında, diğer, daha karmaşık türlere olan ihtiyaç arttı. Tartışma, bu yılın başlarında, Scale AI CEO'sunun, tıpkı yukarıdaki gibi hesapladıkları gibi, AI laboratuvarlarının yakında insan verilerine milyarlarca dolar harcayacağını tahmin ettiğini tweet atmasıyla kamuoyuna açıldı. OpenAI CEO'su Sam Altman, yapay zeka geliştikçe veri ihtiyacının azalacağını söyledi.
Edwin, yapay zekanın artık insan geri bildirimine ihtiyaç duyulmayan bir noktaya ulaşacağından şüphe ediyor, ancak modeller geliştikçe etiketlemenin giderek zorlaştığını görüyor. Pek çok araştırmacı gibi o da ilerlemenin, insanların diğer yapay zekaları denetlemesine yardımcı olan yapay zeka sistemlerini içereceğini düşünüyor. Surge AI kısa bir süre önce Anthropic ile, insan yorumlayıcıların güvenilmez bir AI asistanının yardımıyla uzun bir metin parçası hakkındaki soruları yanıtlamasını sağlayan bir kavram kanıtı üzerinde ortaklık kurdu; teori, insanların AI asistanlarının zayıflıklarını hissetmesi ve bulmak için İşbirlikçi muhakeme yapması gerektiğidir. doğru cevap.
Diğer bir olasılık, iki yapay zekanın nihai kararı bir insan vererek birbirleriyle tartışmasıdır. OpenAI araştırma bilimcisi John Schulman yakın tarihli bir Berkeley konuşmasında şunları söyledi: "Bu şeylerin gerçek pratik potansiyelini henüz görmedik, ancak açıklayıcıların ayak uydurması zor olduğu için gerekli olmaya başlıyor." model ilerlemesi.
Edwin şöyle dedi: "Sırf bu kadar uzaylı oldukları için yapay zekanın ne yaptığını izlemek için her zaman bir insana ihtiyacınız olacak. Makine öğrenimi sistemleri hiçbir zaman tam olarak güvenilemeyecek kadar tuhaf. Bugünün en etkileyici modellerinden bazıları, insanlara çok garip gelen zayıflıklar. GPT-4 karmaşık ve inandırıcı metinler oluşturabilse de, hangi kelimelerin sıfat olduğunu söyleyemez."
08 ChatGPT, görev akışında çok yardımcı olur
2022 sona ererken Joe, öğrencilerinden yapılacaklar listelerinin genellikle boş olduğunu duymaya başladı. Sonra Kenya'daki eğitim kampının kapandığını bildiren bir e-posta aldı. Çevrimiçi eğitim görevlerine devam etti, ancak gelecek için endişelenmeye başladı. "
Durumun uzun sürmeyeceğine dair göstergeler var," dedi Joe. Ek açıklama çalışması Kenya'dan ayrılmak üzere. İnternette tanıştığı meslektaşlarından bu tür misyonların Nepal, Hindistan ve Filipinler'e gönderildiğini duydu. Joe, "Şirketler bir bölgeden diğerine taşınır. Yerel olarak altyapıya sahip değiller, dolayısıyla işletme maliyetlerinin kendileri için daha faydalı olduğu yere hareket etme esnekliğine sahipler. "
AI endüstrisinin cep telefonu ve otomobil üreticilerinden farklı olmasının bir yönü de akışkanlığıdır. Bu iş sürekli değişiyor, otomatikleşiyor ve yerini yeni veri türleri için yeni talepler alıyor. Bu bir ardışık düzendir, ancak doğru becerilerin, bant genişliğinin ve bordronun mevcut olduğu her yere taşınarak sürekli ve hızlı bir şekilde yeniden yapılandırılabilir.
Son zamanlarda, ek açıklama görevleri için en yüksek ücretli işler Amerika Birleşik Devletleri'ne geri döndü. Mayıs ayında Scale AI, web sitesinde ek açıklama işlerini listelemeye başladı ve yapay zekanın fethetmesi beklenen hemen hemen her alanda deneyimli kişiler arıyordu. Fitness koçluğu, insan kaynakları, finans, ekonomi, veri bilimi, programlama, bilgisayar bilimi, kimya, biyoloji, muhasebe, vergilendirme, beslenme, fizik, seyahat, K-12 eğitimi, spor gazeteciliği ve kişisel deneyime sahip AI eğitmenlerinin bu listelerinden bazıları -yardım uzmanlığı.
Robotlara hukuk öğreterek saatte 45 dolar kazanabilirsiniz; onlara şiir öğreterek saatte 25 dolar kazanabilirsiniz. Site ayrıca, muhtemelen askeri yapay zekayı eğitmeye yardımcı olmak için güvenlik deneyimine sahip kişilerin işe alınmasını da listeliyor. Scale AI kısa süre önce, şirket yöneticilerinin "AI savaşında mühimmat" olarak adlandırdığı Donovan adlı bir savunma dili modelini açıkladı ve Ordunun robotik savaş aracı programı üzerinde çalışmak için bir sözleşme kazandı.
Ana hala Teksas'ta sohbet botları eğitiyor. Meslektaşları yorumculara ve Slack moderatörlerine dönüştü ve nedenini bilmiyordu ama bu ona işin uzun vadeli bir kariyer olabileceğine dair umut verdi. Endişelenmediği bir şey de işlerin yerini otomasyonun alması. "Yani, sohbet robotları pek çok harika şey yapabiliyor ama aynı zamanda gerçekten tuhaf şeyler de yapabiliyorlar."
Remotasks Kenya'ya ilk geldiğinde, Joe not almanın iyi bir kariyer olabileceğini düşündü. Başka bir yere taşındıktan sonra bile işi sürdürmeye kararlıydı. Nairobi'de bu işi nasıl yapacağını bilen binlerce insan olduğunu düşündü. Ne de olsa çok insan yetiştirdi. Joe şehirde bir ofis kiraladı ve taşeron sözleşmeleri aramaya başladı: bir inşaat şirketi için planlara açıklama ekleyen bir iş, bir tür tarımsal proje için böceklerden zarar görmüş başka bir meyveye açıklama ekleyen bir iş ve sürücüsüz arabalar için başka bir iş. etiketleme rutinleri
Ancak Joe, vizyonuna ulaşmanın zor olduğunu fark etti. Daha önce ikiden daha az tam zamanlı bir çalışanı var. "Düzenli bir iş akışımız olmadı" dedi. Haftalardır yapacak bir şey yoktu çünkü müşteriler hâlâ veri topluyordu. Müşteri, verileri toplamayı bitirdiğinde, teslim tarihlerini karşılamaları için kısa vadeli yüklenicileri işe almak zorunda kaldı: "Müşteri, devam eden bir işimiz olup olmadığını umursamadı. Veri kümesi etiketlemesi yapıldığı sürece sorun olmaz."
Becerilerinin boşa gitmesine izin vermemek için görevin nereye gideceğine diğer görev yapanlar karar verir ve oraya giderler. Konumlarını gizlemek için proxy sunucuları kiralıyorlar ve Singapur, Hollanda, Mississippi veya görevin aktığı her yerde çalışıyormuş gibi davranabilmek için güvenliği aşmak için sahte kimlikler satın alıyorlar. Bu riskli bir iş. Birden fazla görev aktörüne göre Scale AI, konumlarını gizlediği tespit edilen hesapları askıya alma konusunda giderek daha agresif hale geldi. "
Bugünlerde biraz daha akıllandık çünkü diğer ülkelerde iyi maaşlar ödediklerini fark ettik” diyen Victor, Malezya'da çalışarak Kenya'dan iki kat daha fazla kazanıyor, ancak “dikkatli olmalısınız” dedi.
Başka bir Kenyalı yorumcu, hesabı gizemli nedenlerle bloke edildikten sonra kurallara göre oynamamaya karar verdiğini söyledi. Şimdi, birden çok ülkede birden çok hesap yönetiyor ve gelirin en yüksek olduğu görevleri yürütüyor. ChatGPT sayesinde hızlı çalıştığını ve kalite puanının yüksek olduğunu söylüyor. Botun harika olduğunu ve 10 dolarlık görevleri dakikalar içinde hızlı bir şekilde tamamlamasına izin verdiğini söylüyor.