Untuk BMS, bus, industri, kabel instrumentasi.

Elon Musk dan tim XAI secara resmi meluncurkan versi terbaru Grok, Grok3, selama streaming langsung. Sebelum acara ini, sejumlah besar informasi terkait, ditambah dengan hype promosi 24/7 Musk, meningkatkan harapan global untuk Grok3 ke tingkat yang belum pernah terjadi sebelumnya. Hanya seminggu yang lalu, Musk dengan percaya diri menyatakan selama streaming langsung saat mengomentari Deepseek R1, "Xai akan meluncurkan model AI yang lebih baik." Dari data yang disajikan secara langsung, GROK3 dilaporkan telah melampaui semua model arus utama saat ini dalam tolok ukur untuk matematika, sains, dan pemrograman, dengan Musk bahkan mengklaim bahwa GROK3 akan digunakan untuk tugas -tugas komputasi yang terkait dengan misi Mars SpaceX, memprediksi "terobosan pada tingkat Hadiah Nobel dalam tiga tahun." Namun, ini saat ini hanya pernyataan Musk. Setelah peluncuran, saya menguji versi beta terbaru dari GROK3 dan mengajukan pertanyaan trik klasik untuk model besar: "Mana yang lebih besar, 9,11 atau 9,9?" Sayangnya, tanpa kualifikasi atau tanda, yang disebut GROK3 paling cerdas masih tidak bisa menjawab pertanyaan ini dengan benar. GROK3 gagal mengidentifikasi secara akurat arti pertanyaan.
Tes ini dengan cepat menarik banyak perhatian dari banyak teman, dan secara kebetulan, berbagai tes serupa di luar negeri telah menunjukkan GROK3 berjuang dengan pertanyaan fisika/matematika dasar seperti "bola mana yang jatuh pertama dari menara condong Pisa?" Dengan demikian, telah dilabeli dengan lucu sebagai "seorang jenius yang tidak mau menjawab pertanyaan sederhana."

GROK3 bagus, tetapi tidak lebih baik dari R1 atau O1-Pro.
GROK3 mengalami "kegagalan" pada banyak tes pengetahuan umum dalam praktik. Selama acara peluncuran XAI, Musk menunjukkan menggunakan GROK3 untuk menganalisis kelas dan efek karakter dari jalur permainan Exile 2, yang sering ia mainkan, tetapi sebagian besar jawaban yang diberikan oleh GROK3 salah. Musk selama streaming langsung tidak melihat masalah yang jelas ini.
Kesalahan ini tidak hanya memberikan bukti lebih lanjut bagi netizen luar negeri untuk mengejek Musk karena "menemukan pengganti" dalam permainan tetapi juga menimbulkan kekhawatiran signifikan mengenai keandalan GROK3 dalam aplikasi praktis. Untuk "kejeniusan" seperti itu, terlepas dari kemampuan aktualnya, keandalannya dalam skenario aplikasi yang sangat kompleks, seperti tugas eksplorasi Mars, tetap diragukan.
Saat ini, banyak penguji yang menerima akses ke GROK3 minggu yang lalu, dan mereka yang baru saja menguji kemampuan model selama beberapa jam kemarin, semua menunjukkan kesimpulan umum: "GROK3 bagus, tetapi tidak lebih baik dari R1 atau O1-Pro."

Perspektif penting tentang "mengganggu nvidia"
Dalam PPT yang disajikan secara resmi selama rilis, GROK3 terbukti "jauh di depan" di arena chatbot, tetapi teknik grafis yang digunakan secara cerdik ini: sumbu vertikal pada papan peringkat hanya terdaftar hasil dalam rentang skor 1400-1300, membuat perbedaan 1% asli dalam hasil tes tampak luar biasa signifikan dalam presentasi ini.

Dalam hasil penilaian model yang sebenarnya, GROK3 hanya 1-2% di depan Deepseek R1 dan GPT-4.0, yang sesuai dengan pengalaman banyak pengguna dalam tes praktis yang menemukan "tidak ada perbedaan yang nyata." GROK3 hanya melebihi penggantinya sebesar 1%-2%.

Meskipun GROK3 telah mendapat skor lebih tinggi dari semua model yang diuji saat ini, banyak yang tidak menganggap ini serius: setelah semua, Xai sebelumnya telah dikritik karena "manipulasi skor" di era GROK2. Ketika papan peringkat menghukum gaya panjang jawaban, skor sangat menurun, membuat orang dalam industri sering mengkritik fenomena "skor tinggi tetapi kemampuan rendah."
Baik melalui papan peringkat "manipulasi" atau trik desain dalam ilustrasi, mereka mengungkapkan obsesi Xai dan Musk dengan gagasan "memimpin paket" dalam kemampuan model. Musk membayar harga yang mahal untuk margin ini: Selama peluncuran, ia membual menggunakan 200.000 GPU H100 (mengklaim "lebih dari 100.000" selama streaming langsung) dan mencapai total waktu pelatihan 200 juta jam. Ini membuat beberapa orang percaya itu merupakan anugerah penting lainnya untuk industri GPU dan mempertimbangkan dampak Deepseek pada sektor ini sebagai "bodoh." Khususnya, beberapa percaya bahwa kekuatan komputasi belaka akan menjadi masa depan pelatihan model.
Namun, beberapa netizen membandingkan konsumsi 2000 H800 GPU selama dua bulan untuk menghasilkan Deepseek V3, menghitung bahwa konsumsi daya pelatihan aktual GROK3 adalah 263 kali lipat dari V3. Kesenjangan antara Deepseek V3, yang mencetak 1402 poin, dan GROK3 hanya di bawah 100 poin. Setelah rilis data ini, banyak yang dengan cepat menyadari bahwa di balik judul Grok3 sebagai "terkuat di dunia" terletak efek utilitas marjinal yang jelas - logika model yang lebih besar yang menghasilkan kinerja yang lebih kuat telah mulai menunjukkan pengembalian yang semakin berkurang.

Bahkan dengan "skor tinggi tetapi kemampuan rendah," Grok2 memiliki sejumlah besar data pihak pertama berkualitas tinggi dari platform X (Twitter) untuk mendukung penggunaan. Namun, dalam pelatihan GROK3, XAI secara alami menghadapi "langit -langit" yang saat ini dihadapi Openai - kurangnya data pelatihan premium dengan cepat memaparkan utilitas marjinal dari kemampuan model.
Pengembang GROK3 dan Musk kemungkinan adalah yang pertama memahami dan mengidentifikasi fakta -fakta ini secara mendalam, itulah sebabnya Musk terus -menerus disebutkan di media sosial yang dialami pengguna versi sekarang adalah "masih hanya beta" dan bahwa "versi lengkap akan dirilis dalam beberapa bulan mendatang." Musk telah mengambil peran sebagai manajer produk Grok3, menyarankan pengguna memberikan umpan balik tentang berbagai masalah yang dihadapi di bagian komentar.
Namun, dalam satu hari, kinerja Grok3 tidak diragukan lagi meningkatkan alarm bagi mereka yang berharap untuk mengandalkan "otot komputasi besar-besaran" untuk melatih model besar yang lebih kuat: berdasarkan informasi Microsoft yang tersedia untuk umum, Openai's GPT-4 memiliki ukuran parameter 1,8 triliun, lebih dari sepuluh kali GPT-3. Rumor menunjukkan bahwa ukuran parameter GPT-4.5 mungkin bahkan lebih besar.
Saat ukuran parameter model melambung, biaya pelatihan juga meroket. Dengan kehadiran Grok3, pesaing seperti GPT-4.5 dan lainnya yang ingin melanjutkan "membakar uang" untuk mencapai kinerja model yang lebih baik melalui ukuran parameter harus mempertimbangkan langit-langit yang sekarang jelas terlihat dan merenungkan cara mengatasinya. Pada saat ini, Ilya Sutskever, mantan Kepala Ilmuwan di Openai, sebelumnya menyatakan Desember lalu, "pra-pelatihan yang kami kenal akan berakhir," yang telah muncul kembali dalam diskusi, mendorong upaya untuk menemukan jalan yang sebenarnya untuk melatih model besar.

Sudut pandang Ilya telah membunyikan alarm di industri ini. Dia secara akurat meramalkan kelelahan dari data baru yang dapat diakses, yang mengarah ke situasi di mana kinerja tidak dapat terus ditingkatkan melalui akuisisi data, menyamakannya dengan kelelahan bahan bakar fosil. Dia mengindikasikan bahwa "seperti minyak, konten yang dihasilkan manusia di internet adalah sumber daya yang terbatas." Dalam prediksi Sutskever, generasi model berikutnya, pasca-pelatihan, akan memiliki "otonomi sejati" dan kemampuan penalaran "mirip dengan otak manusia."
Tidak seperti model pra-terlatih saat ini yang terutama mengandalkan pencocokan konten (berdasarkan konten model yang dipelajari sebelumnya), sistem AI di masa depan akan dapat belajar dan membangun metodologi untuk menyelesaikan masalah dengan cara yang mirip dengan "pemikiran" otak manusia. Seorang manusia dapat mencapai kemahiran mendasar dalam subjek dengan literatur profesional dasar yang adil, sementara model AI besar membutuhkan jutaan poin data untuk mencapai kemanjuran entry-level yang paling mendasar. Bahkan ketika kata -kata diubah sedikit, pertanyaan -pertanyaan mendasar ini mungkin tidak dipahami dengan benar, menggambarkan bahwa model tersebut belum benar -benar meningkat dalam kecerdasan: pertanyaan dasar namun tidak dapat diselesaikan yang disebutkan pada awal artikel tersebut merupakan contoh yang jelas dari fenomena ini.

Kesimpulan
Namun, di luar Brute Force, jika GROK3 memang berhasil mengungkapkan kepada industri bahwa "model pra-terlatih mendekati akhir mereka," itu akan membawa implikasi yang signifikan bagi lapangan.
Mungkin setelah hiruk-pikuk di sekitar Grok3 secara bertahap mereda, kami akan menyaksikan lebih banyak kasus seperti contoh Fei-Fei Li tentang "Menyetel model kinerja tinggi pada dataset tertentu hanya dengan $ 50," pada akhirnya menemukan jalan sejati ke AGI.
Kabel kontrol
Sistem pemasangan kabel terstruktur
Jaringan & Data, Kabel Fiber-Optik, Kabel Patch, Modul, Faceplate
Apr.16-18, 2024 Energi Timur Tengah di Dubai
Apr.16-18, 2024 Securika di Moskow
9 Mei, 2024 Acara Peluncuran Produk & Teknologi Baru di Shanghai
Okt.22nd-25th, 2024 Security China di Beijing
Nov.19-20, 2024 Connected World KSA
Waktu posting: Feb-19-2025