Liquid AI, startup kecerdasan buatan (AI) yang berbasis di Massachusetts, telah mengumumkan model AI generatif pertamanya yang tidak dibangun berdasarkan arsitektur transformator yang sudah ada. Arsitektur baru, yang disebut Liquid Foundation Model (LFM), beralih dari Generative Pre-Trained Transformers (GPTs) yang menjadi dasar model AI populer seperti seri GPT dari OpenAI, Gemini, Copilot, dan banyak lagi. Startup ini mengklaim bahwa model AI barunya dibangun berdasarkan prinsip pertama dan kinerjanya mengungguli model bahasa besar (LLM) di segmen ukuran yang sama.
Model alas bedak Liquid AI baru
Startup ini didirikan bersama oleh para peneliti di Laboratorium Ilmu Komputer dan Kecerdasan Buatan (CSAIL) MIT pada tahun 2023, dan tujuannya adalah untuk membangun arsitektur canggih untuk model AI yang dapat bekerja pada tingkat yang serupa atau melebihi GPT. .
LFM baru ini adalah tersedia Dalam tiga ukuran parameter 1.3B, 3.1B dan 40.3B. Yang terakhir adalah model Mixture of Experts (MoE), yang berarti model ini terdiri dari berbagai model bahasa yang lebih kecil dan bertujuan untuk mengatasi tugas-tugas yang lebih kompleks. Perangkat keras LFM kini tersedia di Liquid Playground perusahaan, Lambda untuk UI dan API Obrolan, Perplexity Labs dan akan segera ditambahkan ke Cerebras Inference. Selain itu, model AI dioptimalkan untuk perangkat Nvidia, AMD, Qualcomm, Cerebras, dan Apple.
LFM juga berbeda secara signifikan dari teknologi GPT. Perusahaan mengonfirmasi bahwa model ini dibuat berdasarkan prinsip pertama. Prinsip pertama pada dasarnya adalah pendekatan pemecahan masalah di mana teknologi yang kompleks dipecah menjadi dasar-dasarnya dan kemudian dibangun dari sana.
Menurut startup tersebut, model AI baru ini dibangun berdasarkan apa yang disebut modul komputasi. Sederhananya, ini adalah desain ulang sistem token, sebaliknya perusahaan menggunakan istilah sistem cair. Ini berisi informasi luas dengan penekanan pada memaksimalkan kemampuan kognitif dan berpikir. Startup ini mengklaim bahwa desain baru ini membantu mengurangi biaya memori selama inferensi, dan meningkatkan output kinerja di seluruh video, audio, teks, deret waktu, dan sinyal.
Perusahaan juga mengklaim bahwa keunggulan model AI berbasis Liquid adalah arsitekturnya dapat dioptimalkan secara otomatis untuk platform tertentu berdasarkan persyaratan dan ukuran cache inferensi.
Meskipun tiram yang dimiliki oleh startup sangatlah besar, kinerja dan efisiensinya hanya dapat diukur ketika pengembang dan organisasi mulai menggunakannya dalam alur kerja AI mereka. Startup tersebut tidak mengungkapkan sumber kumpulan datanya, atau langkah keamanan apa pun yang ditambahkan ke model AI.