Menurut laporan Reuters pada 17 Agustus, mantan peneliti top Google Brain David Ha dan Llion Jones mengumumkan pendirian perusahaan riset kecerdasan buatan Sakana AI di Tokyo. Perusahaan menolak untuk mengungkapkan rincian pembiayaan. Dilaporkan bahwa Jones adalah penulis kelima makalah penelitian Google tahun 2017 "Attention Is All You Need", yang memperkenalkan arsitektur pembelajaran mendalam "transformer", yang kemudian menjadi dasar ChatGPT, dan juga merupakan pengembangan saat ini yang didorong oleh buatan generatif. kecerdasan.dasar produk. Ha adalah direktur riset di Stability AI dan peneliti Google Brain.
Jones mengatakan Sakana AI akan fokus pada pembuatan arsitektur baru untuk model yang mendasarinya. "Alih-alih membangun satu model raksasa yang menyedot semua data ini, pendekatan kami adalah menggunakan sejumlah besar model yang lebih kecil, masing-masing dengan kekuatan unik dan kumpulan data yang lebih kecil, dan membiarkan model tersebut berkomunikasi satu sama lain," kata Ha. untuk memecahkan masalah."
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Mantan peneliti top Google Brain meluncurkan firma riset AI Sakana AI di Tokyo
Menurut laporan Reuters pada 17 Agustus, mantan peneliti top Google Brain David Ha dan Llion Jones mengumumkan pendirian perusahaan riset kecerdasan buatan Sakana AI di Tokyo. Perusahaan menolak untuk mengungkapkan rincian pembiayaan. Dilaporkan bahwa Jones adalah penulis kelima makalah penelitian Google tahun 2017 "Attention Is All You Need", yang memperkenalkan arsitektur pembelajaran mendalam "transformer", yang kemudian menjadi dasar ChatGPT, dan juga merupakan pengembangan saat ini yang didorong oleh buatan generatif. kecerdasan.dasar produk. Ha adalah direktur riset di Stability AI dan peneliti Google Brain.
Jones mengatakan Sakana AI akan fokus pada pembuatan arsitektur baru untuk model yang mendasarinya. "Alih-alih membangun satu model raksasa yang menyedot semua data ini, pendekatan kami adalah menggunakan sejumlah besar model yang lebih kecil, masing-masing dengan kekuatan unik dan kumpulan data yang lebih kecil, dan membiarkan model tersebut berkomunikasi satu sama lain," kata Ha. untuk memecahkan masalah."