Theo báo cáo của Reuters vào ngày 17 tháng 8, David Ha và Llion Jones, cựu nhà nghiên cứu hàng đầu của Google Brain, đã tuyên bố thành lập công ty nghiên cứu trí tuệ nhân tạo Sakana AI ở Tokyo. Công ty từ chối tiết lộ chi tiết tài chính. Được biết, Jones là tác giả thứ năm của bài báo nghiên cứu "Chú ý là tất cả những gì bạn cần" của Google năm 2017, đã giới thiệu kiến trúc học sâu "máy biến áp", sau này trở thành nền tảng của ChatGPT và cũng là sự phát triển hiện tại được thúc đẩy bởi trí tuệ nhân tạo. trí tuệ.cơ sở của sản phẩm. Ha từng là giám đốc nghiên cứu tại Stability AI và là nhà nghiên cứu của Google Brain.
Jones cho biết Sakana AI sẽ tập trung vào việc tạo ra các kiến trúc mới cho các mô hình cơ bản. "Thay vì xây dựng một mô hình khổng lồ hút tất cả dữ liệu này, cách tiếp cận của chúng tôi là sử dụng một số lượng lớn các mô hình nhỏ hơn, mỗi mô hình có điểm mạnh riêng và bộ dữ liệu nhỏ hơn, đồng thời để các mô hình đó giao tiếp với nhau", Ha nói. để giải quyết vấn đề."
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Cựu nhà nghiên cứu hàng đầu của Google Brain ra mắt công ty nghiên cứu AI Sakana AI tại Tokyo
Theo báo cáo của Reuters vào ngày 17 tháng 8, David Ha và Llion Jones, cựu nhà nghiên cứu hàng đầu của Google Brain, đã tuyên bố thành lập công ty nghiên cứu trí tuệ nhân tạo Sakana AI ở Tokyo. Công ty từ chối tiết lộ chi tiết tài chính. Được biết, Jones là tác giả thứ năm của bài báo nghiên cứu "Chú ý là tất cả những gì bạn cần" của Google năm 2017, đã giới thiệu kiến trúc học sâu "máy biến áp", sau này trở thành nền tảng của ChatGPT và cũng là sự phát triển hiện tại được thúc đẩy bởi trí tuệ nhân tạo. trí tuệ.cơ sở của sản phẩm. Ha từng là giám đốc nghiên cứu tại Stability AI và là nhà nghiên cứu của Google Brain.
Jones cho biết Sakana AI sẽ tập trung vào việc tạo ra các kiến trúc mới cho các mô hình cơ bản. "Thay vì xây dựng một mô hình khổng lồ hút tất cả dữ liệu này, cách tiếp cận của chúng tôi là sử dụng một số lượng lớn các mô hình nhỏ hơn, mỗi mô hình có điểm mạnh riêng và bộ dữ liệu nhỏ hơn, đồng thời để các mô hình đó giao tiếp với nhau", Ha nói. để giải quyết vấn đề."