Alibaba Rilis Wan2.7-Video, Model AI Multimodal untuk Generasi Video Tingkat Lanjut
INFO TEKNO> Alibaba melalui unit risetnya, Tongyi Lab, meluncurkan model kecerdasan buatan terbaru bernama Wan2.7-Video pada 3 April. Model ini dirancang untuk menghasilkan video berbasis berbagai jenis input—teks, gambar, video, hingga audio—sekaligus memperluas kapabilitas ekosistem AI kreatif yang sedang dibangun perusahaan.
Peluncuran ini terjadi hanya dua hari setelah debut Wan2.7-Image pada 1 April. Tempo rilisnya cepat. Terukur.
Dengan tambahan ini, lini model Wan kini diposisikan sebagai salah satu paket alat generatif paling lengkap dalam ranah produksi video berbasis AI terbuka.
Arsitektur Multimodal dan Kontrol Produksi yang Presisi
Integrasi Empat Jenis Input
Wan2.7-Video dibangun untuk memproses berbagai sumber input secara simultan. Teks, visual statis, klip video, dan audio dapat digabung dalam satu pipeline generasi. Fleksibilitas ini menjadi fondasi utama.
Pengguna tidak lagi terbatas pada satu format. Kombinasi input membuka ruang eksplorasi yang lebih luas dalam produksi konten visual berbasis AI.
Kendali Detail dalam Komposisi dan Narasi
Model ini memungkinkan pengaturan detail yang sangat spesifik. Komposisi adegan dapat diatur. Alur cerita bisa diarahkan.
Elemen visual seperti pencahayaan, transisi waktu, hingga dinamika antar frame dapat dikontrol secara presisi. Hasilnya lebih konsisten. Lebih sinematik.

Aaf Afiatna (Aura OS) adalah seorang WordPress Developer, Administrator IT, dan penggerak di balik infrastruktur berbagai portal media digital PT Arina Duta Sehati. Ia memiliki ketertarikan mendalam pada rekayasa sistem tingkat rendah, implementasi AI on-device, dan pengembangan proyek open-source seperti Neural Standby Kernel (NSK). Saat tidak sedang berurusan dengan server atau kode, ia aktif mengeksplorasi ekosistem Web3 dan berbagi wawasan melalui channel YouTube CryptoFansWorld.







