Untuk BMS, BUS, Industri, Kabel Instrumentasi.

Menjelang berakhirnya Festival Musim Semi, kegembiraan seputar DeepSeek tetap kuat. Liburan baru-baru ini menyoroti persaingan yang signifikan dalam industri teknologi, dengan banyak yang membahas dan menganalisis "catfish" ini. Silicon Valley mengalami krisis yang belum pernah terjadi sebelumnya: para pendukung open-source menyuarakan pendapat mereka lagi, dan bahkan OpenAI mengevaluasi ulang apakah strategi closed-source-nya merupakan pilihan terbaik. Paradigma baru biaya komputasi yang lebih rendah telah memicu reaksi berantai di antara para raksasa chip seperti Nvidia, yang menyebabkan rekor kerugian nilai pasar satu hari dalam sejarah pasar saham AS, sementara lembaga pemerintah sedang menyelidiki kepatuhan chip yang digunakan oleh DeepSeek. Di tengah tinjauan beragam tentang DeepSeek di luar negeri, di dalam negeri, ia mengalami pertumbuhan yang luar biasa. Setelah peluncuran model R1, aplikasi terkait telah mengalami lonjakan lalu lintas, yang menunjukkan bahwa pertumbuhan di sektor aplikasi akan mendorong ekosistem AI secara keseluruhan ke depan. Aspek positifnya adalah bahwa DeepSeek akan memperluas kemungkinan aplikasi, yang menunjukkan bahwa mengandalkan ChatGPT tidak akan semahal itu di masa mendatang. Pergeseran ini telah tercermin dalam aktivitas OpenAI baru-baru ini, termasuk penyediaan model penalaran yang disebut o3-mini untuk membebaskan pengguna sebagai respons terhadap DeepSeek R1, serta peningkatan berikutnya yang membuat rangkaian pemikiran o3-mini menjadi publik. Banyak pengguna luar negeri mengungkapkan rasa terima kasih kepada DeepSeek atas perkembangan ini, meskipun rangkaian pemikiran ini berfungsi sebagai ringkasan.
Secara optimis, jelas bahwa DeepSeek menyatukan para pemain domestik. Dengan fokusnya pada pengurangan biaya pelatihan, berbagai produsen chip hulu, penyedia cloud menengah, dan banyak perusahaan rintisan secara aktif bergabung dalam ekosistem, meningkatkan efisiensi biaya untuk menggunakan model DeepSeek. Menurut makalah DeepSeek, pelatihan lengkap model V3 hanya memerlukan 2,788 juta jam GPU H800, dan proses pelatihannya sangat stabil. Arsitektur MoE (Mixture of Experts) sangat penting untuk mengurangi biaya pra-pelatihan hingga sepuluh kali lipat dibandingkan dengan Llama 3 dengan 405 miliar parameter. Saat ini, V3 adalah model pertama yang diakui publik yang menunjukkan kelangkaan yang tinggi dalam MoE. Selain itu, MLA (Multi Layer Attention) bekerja secara sinergis, khususnya dalam aspek penalaran. "Semakin jarang MoE, semakin besar ukuran batch yang dibutuhkan selama penalaran untuk sepenuhnya memanfaatkan daya komputasi, dengan ukuran KVCache menjadi faktor pembatas utama; MLA secara signifikan mengurangi ukuran KVCache," catat seorang peneliti dari Chuanjing Technology dalam sebuah analisis untuk AI Technology Review. Secara keseluruhan, keberhasilan DeepSeek terletak pada kombinasi berbagai teknologi, bukan hanya satu teknologi. Orang dalam industri memuji kemampuan teknik tim DeepSeek, mencatat keunggulan mereka dalam pelatihan paralel dan pengoptimalan operator, mencapai hasil yang luar biasa dengan menyempurnakan setiap detail. Pendekatan sumber terbuka DeepSeek selanjutnya mendorong pengembangan keseluruhan model besar, dan diantisipasi bahwa jika model serupa berkembang menjadi gambar, video, dan lainnya, ini akan secara signifikan merangsang permintaan di seluruh industri.
Peluang untuk Layanan Penalaran Pihak Ketiga
Data menunjukkan bahwa sejak dirilis, DeepSeek telah mengumpulkan 22,15 juta pengguna aktif harian (DAU) hanya dalam waktu 21 hari, mencapai 41,6% dari basis pengguna ChatGPT dan melampaui 16,95 juta pengguna aktif harian Doubao, sehingga menjadi aplikasi dengan pertumbuhan tercepat secara global, menduduki puncak Apple App Store di 157 negara/wilayah. Namun, sementara pengguna berbondong-bondong, peretas dunia maya terus-menerus menyerang aplikasi DeepSeek, yang menyebabkan tekanan signifikan pada servernya. Analis industri percaya hal ini sebagian disebabkan oleh DeepSeek yang menggunakan kartu untuk pelatihan sementara tidak memiliki daya komputasi yang cukup untuk penalaran. Seorang informan industri memberi tahu AI Technology Review, "Masalah server yang sering terjadi dapat diselesaikan dengan mudah dengan mengenakan biaya atau pembiayaan untuk membeli lebih banyak mesin; pada akhirnya, itu tergantung pada keputusan DeepSeek." Hal ini menghadirkan trade-off dalam fokus pada teknologi versus produktivitas. DeepSeek sebagian besar mengandalkan kuantisasi kuantum untuk menopang dirinya sendiri, setelah menerima sedikit pendanaan eksternal, yang mengakibatkan tekanan arus kas yang relatif rendah dan lingkungan teknologi yang lebih murni. Saat ini, mengingat masalah yang disebutkan di atas, beberapa pengguna mendesak DeepSeek di media sosial untuk meningkatkan ambang batas penggunaan atau memperkenalkan fitur berbayar untuk meningkatkan kenyamanan pengguna. Selain itu, pengembang telah mulai memanfaatkan API resmi atau API pihak ketiga untuk pengoptimalan. Namun, platform terbuka DeepSeek baru-baru ini mengumumkan, "Sumber daya server saat ini langka, dan pengisian ulang layanan API telah ditangguhkan."
Hal ini tentu saja membuka lebih banyak peluang bagi vendor pihak ketiga di sektor infrastruktur AI. Baru-baru ini, banyak raksasa cloud domestik dan internasional telah meluncurkan API model DeepSeek—raksasa luar negeri Microsoft dan Amazon termasuk yang pertama bergabung pada akhir Januari. Pemimpin domestik, Huawei Cloud, mengambil langkah pertama, merilis layanan penalaran DeepSeek R1 dan V3 bekerja sama dengan Flow yang berbasis di Silicon pada tanggal 1 Februari. Laporan dari AI Technology Review menunjukkan bahwa layanan Flow yang berbasis di Silicon telah melihat masuknya pengguna, yang secara efektif "menghancurkan" platform tersebut. Tiga perusahaan teknologi besar—BAT (Baidu, Alibaba, Tencent) dan ByteDance—juga mengeluarkan penawaran berbiaya rendah dan terbatas waktu mulai tanggal 3 Februari, mengingatkan pada perang harga vendor cloud tahun lalu yang dipicu oleh peluncuran model DeepSeek V2, di mana DeepSeek mulai dijuluki "tukang daging harga." Tindakan panik vendor cloud menggemakan hubungan kuat sebelumnya antara Microsoft Azure dan OpenAI, di mana pada tahun 2019, Microsoft membuat investasi besar senilai $1 miliar di OpenAI dan menuai keuntungan setelah peluncuran ChatGPT pada tahun 2023. Namun, hubungan dekat ini mulai renggang setelah Meta menjadikan Llama sebagai sumber terbuka, yang memungkinkan vendor lain di luar ekosistem Microsoft Azure untuk bersaing dengan model besar mereka. Dalam hal ini, DeepSeek tidak hanya melampaui ChatGPT dalam hal popularitas produk tetapi juga memperkenalkan model sumber terbuka setelah rilis o1, mirip dengan kegembiraan seputar kebangkitan GPT-3 oleh Llama.
Pada kenyataannya, penyedia cloud juga memposisikan diri mereka sebagai gerbang lalu lintas untuk aplikasi AI, yang berarti bahwa memperdalam hubungan dengan pengembang menghasilkan keuntungan preemptif. Laporan menunjukkan bahwa Baidu Smart Cloud memiliki lebih dari 15.000 pelanggan yang memanfaatkan model DeepSeek melalui platform Qianfan pada hari peluncuran model tersebut. Selain itu, beberapa perusahaan yang lebih kecil menawarkan solusi, termasuk Flow berbasis silikon, Luchen Technology, Chuanjing Technology, dan berbagai penyedia AI Infra yang telah meluncurkan dukungan untuk model DeepSeek. AI Technology Review telah mempelajari bahwa peluang pengoptimalan saat ini untuk penerapan DeepSeek yang dilokalkan terutama ada di dua area: satu adalah mengoptimalkan karakteristik kelangkaan model MoE menggunakan pendekatan penalaran campuran untuk menerapkan model MoE 671 miliar parameter secara lokal sambil memanfaatkan inferensi GPU/CPU hibrida. Selain itu, pengoptimalan MLA sangat penting. Namun, kedua model DeepSeek masih menghadapi beberapa tantangan dalam pengoptimalan penerapan. "Karena ukuran model dan banyaknya parameter, pengoptimalan memang rumit, terutama untuk penerapan lokal yang mana mencapai keseimbangan optimal antara kinerja dan biaya akan menjadi tantangan," ungkap seorang peneliti dari Chuanjing Technology. Kendala paling signifikan terletak pada mengatasi batasan kapasitas memori. "Kami mengadopsi pendekatan kolaborasi heterogen untuk sepenuhnya memanfaatkan CPU dan sumber daya komputasi lainnya, hanya menempatkan bagian yang tidak digunakan bersama dari matriks MoE yang jarang pada CPU/DRAM untuk diproses menggunakan operator CPU berkinerja tinggi, sementara bagian yang padat tetap berada di GPU," jelasnya lebih lanjut. Laporan menunjukkan bahwa kerangka kerja sumber terbuka Chuanjing KTransformers terutama menyuntikkan berbagai strategi dan operator ke dalam implementasi Transformers asli melalui templat, yang secara signifikan meningkatkan kecepatan inferensi menggunakan metode seperti CUDAGraph. DeepSeek telah menciptakan peluang bagi perusahaan rintisan ini, karena manfaat pertumbuhan menjadi nyata; banyak perusahaan telah melaporkan pertumbuhan pelanggan yang nyata setelah meluncurkan API DeepSeek, menerima pertanyaan dari klien sebelumnya yang mencari pengoptimalan. Orang dalam industri telah mencatat, "Di masa lalu, kelompok klien yang cukup mapan sering kali terkunci pada layanan standar perusahaan besar, terikat erat oleh keunggulan biaya mereka karena skala. Namun, setelah menyelesaikan penerapan DeepSeek-R1/V3 sebelum Festival Musim Semi, kami tiba-tiba menerima permintaan kerja sama dari beberapa klien terkenal, dan bahkan klien yang sebelumnya tidak aktif pun memulai kontak untuk memperkenalkan layanan DeepSeek kami." Saat ini, tampaknya DeepSeek menjadikan kinerja inferensi model semakin penting, dan dengan adopsi model besar yang lebih luas, hal ini akan terus memengaruhi pengembangan dalam industri AI Infra secara signifikan. Jika model tingkat DeepSeek dapat diterapkan secara lokal dengan biaya rendah, hal itu akan sangat membantu upaya transformasi digital pemerintah dan perusahaan. Namun, tantangan tetap ada, karena beberapa klien mungkin memiliki harapan tinggi terkait kemampuan model besar, sehingga semakin jelas bahwa menyeimbangkan kinerja dan biaya menjadi vital dalam penerapan praktis.
Untuk mengevaluasi apakah DeepSeek lebih baik daripada ChatGPT, penting untuk memahami perbedaan utama, kelebihan, dan kasus penggunaan keduanya. Berikut perbandingan lengkapnya:
Fitur/Aspek | Pencarian Mendalam | ObrolanGPT |
---|---|---|
Kepemilikan | Dikembangkan oleh perusahaan Tiongkok | Dikembangkan oleh OpenAI |
Model Sumber | Sumber terbuka | Hak milik |
Biaya | Gratis untuk digunakan; opsi akses API lebih murah | Harga berlangganan atau bayar per penggunaan |
Kustomisasi | Sangat dapat disesuaikan, memungkinkan pengguna untuk mengubah dan membangunnya | Kustomisasi terbatas tersedia |
Kinerja dalam Tugas Tertentu | Unggul dalam bidang tertentu seperti analisis data dan pengambilan informasi | Serbaguna dengan kinerja yang kuat dalam penulisan kreatif dan tugas percakapan |
Dukungan Bahasa | Fokus kuat pada bahasa dan budaya Tiongkok | Dukungan bahasa yang luas tetapi berpusat di AS |
Biaya Pelatihan | Biaya pelatihan lebih rendah, dioptimalkan untuk efisiensi | Biaya pelatihan yang lebih tinggi, membutuhkan sumber daya komputasi yang besar |
Variasi Respons | Mungkin menawarkan respons yang berbeda-beda, mungkin dipengaruhi oleh konteks geopolitik | Jawaban yang konsisten berdasarkan data pelatihan |
Target Pemirsa | Ditujukan untuk pengembang dan peneliti yang menginginkan fleksibilitas | Ditujukan untuk pengguna umum yang mencari kemampuan percakapan |
Kasus Penggunaan | Lebih efisien untuk pembuatan kode dan tugas cepat | Ideal untuk membuat teks, menjawab pertanyaan, dan terlibat dalam dialog |
Pandangan Kritis tentang "Disrupting Nvidia"
Saat ini, selain Huawei, beberapa produsen chip domestik seperti Moore Threads, Muxi, Biran Technology, dan Tianxu Zhixin juga beradaptasi dengan dua model DeepSeek. Seorang produsen chip mengatakan kepada AI Technology Review, "Struktur DeepSeek menunjukkan inovasi, tetapi tetap merupakan LLM. Adaptasi kami terhadap DeepSeek terutama difokuskan pada aplikasi penalaran, yang membuat implementasi teknis cukup mudah dan cepat." Namun, pendekatan MoE memerlukan tuntutan yang lebih tinggi dalam hal penyimpanan dan distribusi, ditambah dengan memastikan kompatibilitas saat digunakan dengan chip domestik, yang menghadirkan banyak tantangan teknik yang perlu diselesaikan selama adaptasi. "Saat ini, daya komputasi domestik tidak menyamai Nvidia dalam hal kegunaan dan stabilitas, yang memerlukan partisipasi pabrik asli untuk pengaturan lingkungan perangkat lunak, pemecahan masalah, dan pengoptimalan kinerja mendasar," kata seorang praktisi industri berdasarkan pengalaman praktis. Secara bersamaan, "Karena skala parameter DeepSeek R1 yang besar, daya komputasi domestik memerlukan lebih banyak simpul untuk paralelisasi. Selain itu, spesifikasi perangkat keras domestik masih agak tertinggal; misalnya, Huawei 910B saat ini tidak dapat mendukung inferensi FP8 yang diperkenalkan oleh DeepSeek." Salah satu hal yang menonjol dari model DeepSeek V3 adalah pengenalan kerangka kerja pelatihan presisi campuran FP8, yang telah divalidasi secara efektif pada model yang sangat besar, yang menandai pencapaian yang signifikan. Sebelumnya, pemain utama seperti Microsoft dan Nvidia menyarankan pekerjaan terkait, tetapi keraguan masih ada dalam industri mengenai kelayakan. Dapat dipahami bahwa dibandingkan dengan INT8, keunggulan utama FP8 adalah bahwa kuantisasi pasca-pelatihan dapat mencapai presisi yang hampir tanpa kehilangan sekaligus meningkatkan kecepatan inferensi secara signifikan. Jika dibandingkan dengan FP16, FP8 dapat mewujudkan akselerasi hingga dua kali lipat pada H20 Nvidia dan lebih dari 1,5 kali akselerasi pada H100. Khususnya, seiring dengan semakin maraknya diskusi seputar tren daya komputasi domestik plus model domestik, spekulasi tentang apakah Nvidia dapat terganggu, dan apakah parit CUDA dapat dilewati, menjadi semakin lazim. Satu fakta yang tidak dapat disangkal adalah bahwa DeepSeek memang telah menyebabkan penurunan substansial dalam nilai pasar Nvidia, tetapi pergeseran ini menimbulkan pertanyaan mengenai integritas daya komputasi kelas atas Nvidia. Narasi yang diterima sebelumnya mengenai akumulasi komputasi yang digerakkan oleh modal sedang ditantang, namun tetap sulit bagi Nvidia untuk sepenuhnya digantikan dalam skenario pelatihan. Analisis penggunaan CUDA yang mendalam oleh DeepSeek menunjukkan bahwa fleksibilitas—seperti menggunakan SM untuk komunikasi atau memanipulasi kartu jaringan secara langsung—tidak layak untuk diakomodasi oleh GPU biasa. Sudut pandang industri menekankan bahwa parit Nvidia mencakup seluruh ekosistem CUDA, bukan hanya CUDA itu sendiri, dan instruksi PTX (Parallel Thread Execution) yang digunakan DeepSeek masih menjadi bagian dari ekosistem CUDA. "Dalam jangka pendek, daya komputasi Nvidia tidak dapat diabaikan—ini terutama terlihat jelas dalam pelatihan; namun, penggunaan kartu domestik untuk penalaran akan relatif lebih mudah, sehingga kemajuan kemungkinan akan lebih cepat. Adaptasi kartu domestik terutama berfokus pada inferensi; belum ada yang berhasil melatih model kinerja DeepSeek pada kartu domestik dalam skala besar," seorang analis industri berkomentar kepada AI Technology Review. Secara keseluruhan, dari sudut pandang inferensi, keadaannya menggembirakan bagi chip model besar domestik. Peluang bagi produsen chip domestik dalam bidang inferensi lebih jelas karena persyaratan pelatihan yang sangat tinggi, yang menghambat masuknya. Analis berpendapat bahwa cukup memanfaatkan kartu inferensi domestik sudah cukup; jika perlu, memperoleh mesin tambahan dapat dilakukan, sedangkan model pelatihan menimbulkan tantangan unik—mengelola peningkatan jumlah mesin dapat menjadi beban, dan tingkat kesalahan yang lebih tinggi dapat berdampak negatif pada hasil pelatihan. Pelatihan juga memiliki persyaratan skala kluster tertentu, sementara tuntutan pada kluster untuk inferensi tidak seketat itu, sehingga meringankan persyaratan GPU. Saat ini, kinerja kartu H20 tunggal Nvidia tidak melampaui Huawei atau Cambrian; kekuatannya terletak pada pengelompokan. Berdasarkan dampak keseluruhan pada pasar daya komputasi, pendiri Luchen Technology, You Yang, mencatat dalam sebuah wawancara dengan AI Technology Review, "DeepSeek dapat merusak sementara pembentukan dan penyewaan klaster komputasi pelatihan ultra-besar. Dalam jangka panjang, dengan secara signifikan mengurangi biaya yang terkait dengan pelatihan, penalaran, dan aplikasi model besar, permintaan pasar kemungkinan akan melonjak. Iterasi AI berikutnya berdasarkan ini karenanya akan terus mendorong permintaan berkelanjutan di pasar daya komputasi." Selain itu, "permintaan DeepSeek yang meningkat untuk layanan penalaran dan penyempurnaan lebih kompatibel dengan lanskap komputasi domestik, di mana kapasitas lokal relatif lemah, membantu mengurangi pemborosan dari sumber daya yang tidak aktif pasca pembentukan klaster; ini menciptakan peluang yang layak bagi produsen di berbagai tingkat ekosistem komputasi domestik." Luchen Technology telah berkolaborasi dengan Huawei Cloud untuk meluncurkan API penalaran seri DeepSeek R1 dan layanan pencitraan cloud berdasarkan daya komputasi domestik. You Yang menyatakan optimisme tentang masa depan: "DeepSeek menanamkan kepercayaan pada solusi yang diproduksi di dalam negeri, mendorong antusiasme dan investasi yang lebih besar pada kemampuan komputasi dalam negeri di masa mendatang."

Kesimpulan
Apakah DeepSeek "lebih baik" daripada ChatGPT bergantung pada kebutuhan dan tujuan spesifik pengguna. Untuk tugas yang membutuhkan fleksibilitas, biaya rendah, dan kustomisasi, DeepSeek mungkin lebih unggul. Untuk penulisan kreatif, penyelidikan umum, dan antarmuka percakapan yang mudah digunakan, ChatGPT mungkin lebih unggul. Setiap alat memiliki tujuan yang berbeda, jadi pilihannya akan sangat bergantung pada konteks penggunaannya.
Kabel Kontrol
Sistem Pengkabelan Terstruktur
Jaringan & Data, Kabel Serat Optik, Kabel Patch, Modul, Pelat Depan
16-18 April 2024 Energi Timur Tengah di Dubai
16-18 April 2024 Securika di Moskow
9 Mei 2024 ACARA PELUNCURAN PRODUK & TEKNOLOGI BARU di Shanghai
22-25 Oktober 2024 KEAMANAN CHINA di Beijing
19-20 November 2024 CONNECTED WORLD KSA
Waktu posting: 10-Feb-2025