Untuk BMS, bus, industri, kabel instrumentasi.

Ketika Festival Musim Semi berakhir, kegembiraan di sekitar Deepseek tetap kuat. Liburan baru -baru ini menyoroti rasa persaingan yang signifikan dalam industri teknologi, dengan banyak membahas dan menganalisis "ikan lele" ini. Silicon Valley mengalami rasa krisis yang belum pernah terjadi sebelumnya: para pendukung open-source menyuarakan pendapat mereka lagi, dan bahkan Openai mengevaluasi kembali apakah strategi sumber tertutupnya adalah pilihan terbaik. Paradigma baru dari biaya komputasi yang lebih rendah telah memicu reaksi berantai di antara raksasa chip seperti NVIDIA, yang mengarah pada mencatat kerugian nilai pasar satu hari dalam sejarah pasar saham AS, sementara lembaga pemerintah sedang menyelidiki kepatuhan chip yang digunakan oleh Deepseek. Di tengah ulasan beragam Deepseek di luar negeri, di dalam negeri, ia mengalami pertumbuhan yang luar biasa. Setelah peluncuran model R1, aplikasi terkait telah melihat lonjakan lalu lintas, menunjukkan bahwa pertumbuhan sektor aplikasi akan mendorong keseluruhan ekosistem AI ke depan. Aspek positifnya adalah bahwa Deepseek akan memperluas kemungkinan aplikasi, menunjukkan bahwa mengandalkan chatgpt tidak akan semahal di masa depan. Pergeseran ini telah tercermin dalam kegiatan Openai baru-baru ini, termasuk penyediaan model penalaran yang disebut O3-Mini untuk pengguna gratis sebagai tanggapan terhadap Deepseek R1, serta peningkatan berikutnya yang membuat rantai pemikiran publik O3-Mini. Banyak pengguna luar negeri menyatakan terima kasih kepada Deepseek untuk perkembangan ini, meskipun rantai pemikiran ini berfungsi sebagai ringkasan.
Secara optimis, terbukti bahwa Deepseek menyatukan pemain domestik. Dengan fokusnya pada pengurangan biaya pelatihan, berbagai produsen chip hulu, penyedia cloud menengah, dan banyak startup secara aktif bergabung dengan ekosistem, meningkatkan efisiensi biaya untuk menggunakan model Deepseek. Menurut makalah Deepseek, pelatihan lengkap model V3 hanya membutuhkan 2,788 juta jam GPU H800, dan proses pelatihan sangat stabil. Arsitektur MOE (campuran ahli) sangat penting untuk mengurangi biaya pra-pelatihan dengan faktor sepuluh dibandingkan dengan Llama 3 dengan 405 miliar parameter. Saat ini, V3 adalah model yang diakui publik pertama yang menunjukkan sparsity tinggi di MOE. Selain itu, MLA (Multi Layer Attention) bekerja secara sinergis, terutama dalam aspek penalaran. "Semakin jarang MOE, semakin besar ukuran batch yang dibutuhkan selama penalaran untuk sepenuhnya memanfaatkan daya komputasi, dengan ukuran KVCache menjadi faktor pembatas utama; MLA secara signifikan mengurangi ukuran KVCache," kata seorang peneliti dari teknologi Chuanjing dalam analisis untuk tinjauan teknologi AI. Secara keseluruhan, keberhasilan Deepseek terletak pada kombinasi berbagai teknologi, bukan hanya satu pun. Orang dalam industri memuji kemampuan teknik tim Deepseek, mencatat keunggulan mereka dalam pelatihan paralel dan optimasi operator, mencapai hasil inovatif dengan memperbaiki setiap detail. Pendekatan sumber terbuka Deepseek lebih lanjut memicu pengembangan keseluruhan model besar, dan diantisipasi bahwa jika model serupa berkembang menjadi gambar, video, dan banyak lagi, ini akan secara signifikan merangsang permintaan di seluruh industri.
Peluang untuk layanan penalaran pihak ketiga
Data menunjukkan bahwa sejak dirilis, Deepseek telah menghasilkan 22,15 juta pengguna aktif harian (DAU) hanya dalam waktu 21 hari, mencapai 41,6% dari basis pengguna ChatGPT dan melampaui 16,95 juta pengguna aktif harian Doubao, sehingga menjadi aplikasi yang paling cepat berkembang secara global, menduduki puncak Apple App Store di 157 negara/negara. Namun, sementara pengguna berbondong -bondong berbondong -bondong, peretas dunia maya telah tanpa henti menyerang aplikasi Deepseek, menyebabkan ketegangan yang signifikan pada servernya. Analis industri percaya ini sebagian karena Deepseek menggunakan kartu untuk pelatihan sementara tidak memiliki kekuatan komputasi yang cukup untuk penalaran. Tinjauan Teknologi AI Orang Dalam Industri, "Masalah server yang sering dapat diselesaikan dengan mudah dengan membebankan biaya atau pembiayaan untuk membeli lebih banyak mesin; pada akhirnya, itu tergantung pada keputusan Deepseek." Ini menyajikan pertukaran dalam fokus pada teknologi versus produkisasi. Deepseek sebagian besar mengandalkan kuantisasi kuantum untuk kemandirian, setelah menerima sedikit dana eksternal, menghasilkan tekanan arus kas yang relatif rendah dan lingkungan teknologi yang lebih murni. Saat ini, mengingat masalah -masalah yang disebutkan di atas, beberapa pengguna mendesak Deepseek di media sosial untuk meningkatkan ambang penggunaan atau memperkenalkan fitur berbayar untuk meningkatkan kenyamanan pengguna. Selain itu, pengembang telah mulai menggunakan API resmi atau API pihak ketiga untuk optimasi. Namun, platform terbuka Deepseek baru -baru ini mengumumkan, "Sumber daya server saat ini langka, dan pengisian ulang layanan API telah ditangguhkan."
Ini tidak diragukan lagi membuka lebih banyak peluang bagi vendor pihak ketiga di sektor infrastruktur AI. Baru -baru ini, banyak raksasa cloud domestik dan internasional telah meluncurkan model API Deepseek - Giants Microsoft dan Amazon adalah yang pertama bergabung pada akhir Januari. Pemimpin domestik, Huawei Cloud, membuat langkah pertama, melepaskan layanan penalaran Deepseek R1 dan V3 bekerja sama dengan aliran berbasis silikon pada 1 Februari. Laporan dari Tinjauan Teknologi AI menunjukkan bahwa layanan Flow berbasis silikon telah melihat masuknya pengguna, secara efektif "menabrak" platform. Tiga perusahaan teknologi besar-Bat (Baidu, Alibaba, Tencent) dan Bytedance-juga mengeluarkan penawaran berbiaya rendah, waktu terbatas mulai 3 Februari, mengingatkan pada perang harga cloud vendor tahun lalu yang dinyalakan oleh peluncuran model V2 Deepseek, di mana Deepseek mulai dijuluki "Harga Butcher." Tindakan panik dari vendor cloud menggemakan ikatan kuat sebelumnya antara Microsoft Azure dan Openai, di mana pada tahun 2019, Microsoft melakukan investasi $ 1 miliar besar di Openai dan menuai manfaat setelah peluncuran ChatGPT pada tahun 2023. Namun, hubungan dekat ini mulai membuat meta yang bersumber dengan vendor-vendor lain di luar mikrosa. Dalam hal ini, Deepseek tidak hanya melampaui chatgpt dalam hal panas produk tetapi juga telah memperkenalkan model open-source setelah rilis O1, mirip dengan kegembiraan seputar kebangkitan Llama dari GPT-3.
Pada kenyataannya, penyedia cloud juga memposisikan diri sebagai gateway lalu lintas untuk aplikasi AI, yang berarti bahwa hubungan yang semakin dalam dengan pengembang diterjemahkan menjadi keuntungan preemptive. Laporan menunjukkan bahwa Baidu Smart Cloud memiliki lebih dari 15.000 pelanggan yang menggunakan model Deepseek melalui platform Qianfan pada hari peluncuran model. Selain itu, beberapa perusahaan kecil menawarkan solusi, termasuk aliran berbasis silikon, teknologi Luchen, teknologi Chuanjing, dan berbagai penyedia infra AI yang telah meluncurkan dukungan untuk model Deepseek. AI Technology Review telah belajar bahwa peluang optimasi saat ini untuk penyebaran Deepseek yang terlokalisasi terutama ada di dua bidang: satu mengoptimalkan karakteristik sparsity dari model MOE menggunakan pendekatan penalaran campuran untuk menggunakan 671 miliar model MOE parameter secara lokal sambil menggunakan inferensi GPU/CPU hibrida. Selain itu, optimalisasi MLA sangat penting. Namun, dua model Deepseek masih menghadapi beberapa tantangan dalam optimasi penyebaran. "Karena ukuran model dan banyak parameter, optimasi memang kompleks, terutama untuk penyebaran lokal di mana mencapai keseimbangan optimal antara kinerja dan biaya akan menantang," kata seorang peneliti dari teknologi Chuanjing. Rintangan yang paling signifikan terletak pada mengatasi batas kapasitas memori. "Kami mengadopsi pendekatan kolaborasi yang heterogen untuk sepenuhnya memanfaatkan CPU dan sumber daya komputasi lainnya, hanya menempatkan bagian-bagian yang tidak dibesarkan dari matriks MOE yang jarang pada CPU/DRAM untuk diproses menggunakan operator CPU berkinerja tinggi, sedangkan bagian padat tetap pada GPU," jelasnya lebih lanjut. Laporan menunjukkan bahwa ktransformer kerangka kerja open-source Chuanjing terutama menyuntikkan berbagai strategi dan operator ke dalam implementasi Transformers asli melalui templat, secara signifikan meningkatkan kecepatan inferensi menggunakan metode seperti cudagraph. Deepseek telah menciptakan peluang untuk startup ini, karena manfaat pertumbuhan menjadi jelas; Banyak perusahaan telah melaporkan pertumbuhan pelanggan yang nyata setelah meluncurkan API Deepseek, menerima pertanyaan dari klien sebelumnya yang mencari optimisasi. Orang dalam industri telah mencatat, "Di masa lalu, kelompok-kelompok klien yang agak mapan sering dikunci ke dalam layanan standar dari perusahaan besar, terikat erat dengan keunggulan biaya mereka karena skala. Namun, setelah menyelesaikan penyebaran Deepseek-R1/V3 sebelum Festival Musim Semi, kami tiba-tiba menerima permintaan kerja sama dari beberapa klien yang terkenal, dan bahkan klien yang sebelumnya memulai kontak dengan kontak yang diinisiasi dengan kontak yang telah diinisiasi dengan kontak yang telah diinisiasi dengan kontak yang di-navening? Saat ini, tampak bahwa Deepseek membuat model inferensi model semakin kritis, dan dengan adopsi model besar yang lebih luas, ini akan terus mempengaruhi perkembangan dalam industri AI infra secara signifikan. Jika model tingkat Deepseek dapat digunakan secara lokal dengan biaya rendah, itu akan sangat membantu pemerintah dan upaya transformasi digital perusahaan. Namun, tantangan bertahan, karena beberapa klien dapat memiliki harapan tinggi mengenai kemampuan model besar, membuatnya lebih jelas bahwa menyeimbangkan kinerja dan biaya menjadi vital dalam penyebaran praktis.
Untuk mengevaluasi apakah Deepseek lebih baik daripada chatgpt, penting untuk memahami perbedaan utama, kekuatan, dan kasus penggunaan mereka. Berikut perbandingan yang komprehensif:
Fitur/aspek | Deepseek | Chatgpt |
---|---|---|
Kepemilikan | Dikembangkan oleh perusahaan Cina | Dikembangkan oleh Openai |
Model sumber | Open-source | Hak milik |
Biaya | Bebas untuk digunakan; Opsi akses API yang lebih murah | Langganan atau harga bayar per penggunaan |
Kustomisasi | Sangat dapat disesuaikan, memungkinkan pengguna untuk mengubah dan membangunnya | Kustomisasi terbatas tersedia |
Kinerja dalam tugas tertentu | Unggul di bidang tertentu seperti analisis data dan pengambilan informasi | Serbaguna dengan kinerja yang kuat dalam penulisan kreatif dan tugas percakapan |
Dukungan bahasa | Fokus kuat pada bahasa dan budaya Cina | Dukungan bahasa yang luas tetapi AS-sentris |
Biaya pelatihan | Menurunkan biaya pelatihan, dioptimalkan untuk efisiensi | Biaya pelatihan yang lebih tinggi, membutuhkan sumber daya komputasi yang substansial |
Variasi respons | Dapat menawarkan tanggapan yang berbeda, mungkin dipengaruhi oleh konteks geopolitik | Jawaban yang konsisten berdasarkan data pelatihan |
Target audiens | Ditujukan untuk pengembang dan peneliti yang menginginkan fleksibilitas | Ditujukan untuk pengguna umum yang mencari kemampuan percakapan |
Menggunakan kasus | Lebih efisien untuk pembuatan kode dan tugas cepat | Ideal untuk menghasilkan teks, menjawab pertanyaan, dan terlibat dalam dialog |
Perspektif penting tentang "mengganggu nvidia"
Saat ini, selain dari Huawei, beberapa produsen chip domestik seperti Moore Threads, Muxi, Biran Technology, dan Tianxu Zhixin juga beradaptasi dengan dua model Deepseek. Pabrikan chip mengatakan kepada AI Technology Review, "Struktur Deepseek menunjukkan inovasi, namun tetap menjadi LLM. Adaptasi kami terhadap Deepseek terutama difokuskan pada aplikasi penalaran, membuat implementasi teknis cukup mudah dan cepat." Namun, pendekatan MOE membutuhkan tuntutan yang lebih tinggi dalam hal penyimpanan dan distribusi, ditambah dengan memastikan kompatibilitas saat digunakan dengan chip domestik, menghadirkan banyak tantangan rekayasa yang membutuhkan resolusi selama adaptasi. "Saat ini, kekuatan komputasi domestik tidak cocok dengan NVIDIA dalam kegunaan dan stabilitas, membutuhkan partisipasi pabrik asli untuk pengaturan lingkungan perangkat lunak, pemecahan masalah, dan optimasi kinerja dasar," kata seorang praktisi industri berdasarkan pengalaman praktis. Secara bersamaan, "karena skala parameter besar Deepseek R1, kekuatan komputasi domestik memerlukan lebih banyak node untuk paralelisasi. Selain itu, spesifikasi perangkat keras domestik masih agak di belakang; misalnya, Huawei 910B saat ini tidak dapat mendukung inferensi FP8 yang diperkenalkan oleh DeepSeek." Salah satu sorotan dari model Deepseek V3 adalah pengenalan kerangka pelatihan presisi campuran FP8, yang telah divalidasi secara efektif pada model yang sangat besar, menandai pencapaian yang signifikan. Sebelumnya, pemain utama seperti Microsoft dan Nvidia menyarankan pekerjaan terkait, tetapi keraguan berlama -lama dalam industri mengenai kelayakan. Dipahami bahwa dibandingkan dengan INT8, keuntungan utama FP8 adalah bahwa kuantisasi pasca-pelatihan dapat mencapai presisi yang hampir tidak hilang sementara secara signifikan meningkatkan kecepatan inferensi. Saat membandingkan dengan FP16, FP8 dapat mewujudkan akselerasi hingga dua kali pada H20 NVIDIA dan lebih dari 1,5 kali akselerasi pada H100. Khususnya, ketika diskusi seputar tren kekuatan komputasi domestik ditambah model domestik mendapatkan momentum, spekulasi tentang apakah NVIDIA dapat terganggu, dan apakah parit Cuda dapat dilewati, menjadi semakin lazim. Satu fakta yang tidak dapat disangkal adalah bahwa Deepseek memang telah menyebabkan penurunan substansial dalam nilai pasar Nvidia, tetapi perubahan ini menimbulkan pertanyaan tentang integritas daya komputasi kelas atas NVIDIA. Narasi yang sebelumnya diterima mengenai akumulasi komputasi yang digerakkan oleh modal sedang ditantang, namun tetap sulit bagi NVIDIA untuk sepenuhnya diganti dalam skenario pelatihan. Analisis penggunaan CUDA Deepseek yang mendalam menunjukkan bahwa fleksibilitas - seperti menggunakan SM untuk komunikasi atau secara langsung memanipulasi kartu jaringan - tidak layak untuk mengakomodasi GPU biasa. Sudut pandang industri menekankan bahwa parit NVIDIA mencakup seluruh ekosistem CUDA daripada hanya CUDA itu sendiri, dan instruksi PTX (Parallel Thread Execution) yang digunakan Deepseek masih menjadi bagian dari ekosistem CUDA. "In the short term, Nvidia's computational power cannot be bypassed—this is especially clear in training; however, deploying domestic cards for reasoning will be relatively easier, so progress will likely be quicker. The adaptation of domestic cards primarily focuses on inference; no one has yet managed to train a model of DeepSeek's performance on domestic cards at scale," an industry analyst remarked to AI Technology Review. Secara keseluruhan, dari sudut pandang inferensi, keadaannya menggembirakan untuk chip model besar domestik. Peluang untuk produsen chip domestik dalam ranah inferensi lebih jelas karena persyaratan pelatihan yang terlalu tinggi, yang menghambat masuknya. Analis berpendapat bahwa hanya memanfaatkan kartu inferensi domestik sudah cukup; Jika perlu, memperoleh mesin tambahan adalah layak, sedangkan model pelatihan menimbulkan tantangan unik - mengelola peningkatan jumlah mesin dapat menjadi memberatkan, dan tingkat kesalahan yang lebih tinggi dapat berdampak negatif pada hasil pelatihan. Pelatihan juga memiliki persyaratan skala cluster spesifik, sedangkan tuntutan pada kelompok inferensi tidak seketat, sehingga mengurangi persyaratan GPU. Saat ini, kinerja kartu H20 tunggal NVIDIA tidak melampaui Huawei atau Cambrian; Kekuatannya terletak pada pengelompokan. Berdasarkan dampak keseluruhan pada pasar listrik komputasi, pendiri teknologi Luchen, Anda yang, yang mencatat dalam sebuah wawancara dengan AI Tinjauan Tinjauan, "Deepseek dapat untuk sementara waktu merusak pendirian dan penyewaan pelatihan yang sangat besar dari pelatihan ini, dan pada saat itu, dengan pengurangan yang secara signifikan akan mengurangi biaya. Permintaan berkelanjutan di pasar listrik komputasi. " Selain itu, "Permintaan yang meningkat dari Deepseek untuk penalaran dan layanan penyempurnaan lebih kompatibel dengan lanskap komputasi domestik, di mana kapasitas lokal relatif lemah, membantu mengurangi limbah dari sumber daya yang menganggur pasca pembentukan; Luchen Technology telah berkolaborasi dengan Huawei Cloud untuk meluncurkan Seri R1 Deepseek yang beralasan API dan layanan pencitraan cloud berdasarkan kekuatan komputasi domestik. Anda Yang menyatakan optimisme tentang masa depan: "Deepseek menanamkan kepercayaan pada solusi yang diproduksi di dalam negeri, mendorong antusiasme dan investasi yang lebih besar dalam kemampuan komputasi domestik ke depan."

Kesimpulan
Apakah Deepseek "lebih baik" daripada chatgpt tergantung pada kebutuhan dan tujuan spesifik pengguna. Untuk tugas yang membutuhkan fleksibilitas, biaya rendah, dan kustomisasi, Deepseek mungkin lebih unggul. Untuk penulisan kreatif, pertanyaan umum, dan antarmuka percakapan yang ramah pengguna, ChatGPT dapat memimpin. Setiap alat melayani tujuan yang berbeda, sehingga pilihan akan sangat tergantung pada konteks di mana mereka digunakan.
Kabel kontrol
Sistem pemasangan kabel terstruktur
Jaringan & Data, Kabel Fiber-Optik, Kabel Patch, Modul, Faceplate
Apr.16-18, 2024 Energi Timur Tengah di Dubai
Apr.16-18, 2024 Securika di Moskow
9 Mei, 2024 Acara Peluncuran Produk & Teknologi Baru di Shanghai
Okt.22nd-25th, 2024 Security China di Beijing
Nov.19-20, 2024 Connected World KSA
Waktu pos: Feb-10-2025