Postingan DeepSeek V4 dikabarkan mengungguli ChatGPT dan Claude dalam coding konteks panjang muncul di BitcoinEthereumNews.com. DeepSeek V4 dikabarkan mengungguli ChatGPTPostingan DeepSeek V4 dikabarkan mengungguli ChatGPT dan Claude dalam coding konteks panjang muncul di BitcoinEthereumNews.com. DeepSeek V4 dikabarkan mengungguli ChatGPT

DeepSeek V4 dikabarkan mengungguli ChatGPT dan Claude dalam pengkodean konteks panjang

DeepSeek V4 dikabarkan mengungguli ChatGPT dan Claude dalam pengkodean konteks panjang, menargetkan tugas pengkodean tingkat elit. Orang dalam mengklaim bahwa lanskap AI Silicon Valley harus khawatir jika tes internal mengisyaratkan kinerja yang diharapkan setelah peluncuran pada pertengahan Februari.

Startup AI berbasis China DeepSeek dilaporkan berencana merilis DeepSeek V4, model bahasa besar terbarunya, pada 17 Februari. Orang-orang yang mengetahui masalah ini mengklaim bahwa model tersebut siap memberikan bayangan atas model bahasa besar yang ada, seperti ChatGPT OpenAI dan Claude Anthropic, saat menangani prompt dan tugas kode konteks panjang.

Pengembang mengungkapkan antisipasi mendalam untuk peluncuran DeepSeek V4

Perusahaan China tersebut belum mengungkapkan informasi apapun secara publik tentang peluncuran yang akan datang atau mengkonfirmasi rumor tersebut pada saat penulisan. Pengembang di berbagai jaringan sosial telah mengungkapkan antisipasi mendalam untuk peluncuran tersebut. Yuchen Jin, seorang pengembang AI dan salah satu pendiri Hyperbolic Labs, menulis di X bahwa "DeepSeek V4 dikabarkan akan segera dirilis, dengan pengkodean yang lebih kuat daripada Claude dan GPT."

Subreddit r/DeepSeek juga memanas, dengan satu pengguna menjelaskan bahwa obsesi mereka dengan model V4 DeepSeek yang akan datang tidak normal. Pengguna tersebut mengatakan bahwa mereka sering "memeriksa berita, kemungkinan rumor, dan saya bahkan membaca Docs di situs web DS untuk mencari perubahan atau tanda yang menunjukkan pembaruan."

Peluncuran sebelumnya DeepSeek telah memberikan dampak signifikan pada pasar global. Startup AI China tersebut merilis model penalaran R1 pada Januari 2025, yang menyebabkan penjualan senilai triliun dolar. Peluncuran tersebut menyamai model 01 OpenAI pada benchmark matematika dan penalaran, meskipun biayanya jauh lebih rendah daripada yang dihabiskan startup AI AS untuk model 01-nya. 

Perusahaan China tersebut dilaporkan hanya menghabiskan $6 juta untuk peluncuran model. Sementara itu, pesaing global menghabiskan hampir 70 kali lebih banyak untuk output yang sama. Model V3-nya juga mencatat skor 90,2% pada benchmark MATH-500, dibandingkan dengan 78,3% milik Claude. Upgrade V3 DeepSeek yang lebih baru (V3.2 Speciale) semakin meningkatkan produktivitasnya.

Titik jual model V4-nya telah berkembang dari penekanan V3 pada penalaran murni, bukti formal, dan matematika logis. Peluncuran baru diharapkan menjadi model hybrid yang menggabungkan tugas penalaran dan non-penalaran. Model ini bertujuan untuk merebut pasar pengembang dengan mengisi kesenjangan yang ada yang membutuhkan akurasi tinggi dan generasi kode konteks panjang.

Claude Opus 4.5 saat ini mengklaim dominasi dalam benchmark SWE, mencapai akurasi 80,9%. V4 perlu mengalahkan ini untuk menggulingkan Claude Opus 4.5. Berdasarkan kesuksesan sebelumnya, model yang akan datang mungkin melampaui ambang batas ini dan mengklaim dominasi dalam benchmark.

DeepSeek memelopori mHC untuk melatih LLM

Kesuksesan DeepSeek telah meninggalkan banyak orang dalam ketidakpercayaan profesional yang mendalam. Bagaimana perusahaan sekecil itu bisa mencapai pencapaian seperti itu? Rahasianya bisa tertanam dalam dalam makalah penelitiannya yang diterbitkan pada 1 Januari. Perusahaan mengidentifikasi metode pelatihan baru yang memungkinkan pengembang dengan mudah menskalakan model bahasa besar. Liang Wenfeng, pendiri dan CEO DeepSeek, menulis dalam penelitian bahwa perusahaan menggunakan Manifold-Constrained Hyper-Connections (mHC) untuk melatih model AI-nya. 

Eksekutif tersebut mengusulkan penggunaan mHC untuk mengatasi masalah yang dihadapi ketika pengembang melatih model bahasa besar. Menurut Wenfeng, mHC adalah upgrade dari Hyper-Connections (HC), kerangka kerja yang digunakan pengembang AI lain untuk melatih model bahasa besar mereka. Dia menjelaskan bahwa HC dan arsitektur AI tradisional lainnya memaksa semua data melalui satu saluran sempit. Pada saat yang sama, mHC memperlebar jalur tersebut menjadi beberapa saluran, memfasilitasi transfer data dan informasi tanpa menyebabkan keruntuhan pelatihan. 

Lian Jye Su, analis kepala di Omdia, memuji CEO Wenfeng karena menerbitkan penelitian mereka. Su menekankan bahwa keputusan DeepSeek untuk menerbitkan metode pelatihannya menunjukkan kepercayaan yang diperbarui pada sektor AI China. DeepSeek telah mendominasi dunia berkembang. Microsoft menerbitkan laporan pada hari Kamis, menunjukkan bahwa DeepSeek menguasai 89% pasar AI China dan telah mendapatkan momentum di negara-negara berkembang.

Ingin proyek Anda di hadapan para pemikir top kripto? Tampilkan di laporan industri kami berikutnya, di mana data bertemu dampak.

Sumber: https://www.cryptopolitan.com/deepseek-v4-chatgpt-and-claude/

Peluang Pasar
Logo Belong
Harga Belong(LONG)
$0.003475
$0.003475$0.003475
+1.22%
USD
Grafik Harga Live Belong (LONG)
Penafian: Artikel yang diterbitkan ulang di situs web ini bersumber dari platform publik dan disediakan hanya sebagai informasi. Artikel tersebut belum tentu mencerminkan pandangan MEXC. Seluruh hak cipta tetap dimiliki oleh penulis aslinya. Jika Anda meyakini bahwa ada konten yang melanggar hak pihak ketiga, silakan hubungi service@support.mexc.com agar konten tersebut dihapus. MEXC tidak menjamin keakuratan, kelengkapan, atau keaktualan konten dan tidak bertanggung jawab atas tindakan apa pun yang dilakukan berdasarkan informasi yang diberikan. Konten tersebut bukan merupakan saran keuangan, hukum, atau profesional lainnya, juga tidak boleh dianggap sebagai rekomendasi atau dukungan oleh MEXC.