Friday 21 July 2017

Moving Average Fps


Selusin jam pengujian Black Ops 3 selesai dan beralih ke game video berurutan berikutnya: Fallout 4. Yang mendapat angka lebih besar di akhir. Bethesda memiliki salah satu siklus hidup pengembangan terpanjang di industri ini, namun permainan perusahaan juga termasuk yang paling lama bertahan, berkat usaha permesinan yang tak henti-hentinya. Ini membantu masyarakat modding untuk dapat mengisi kesenjangan dalam kode Bethesdas atau membangun permainan baru sepenuhnya dari fondasi yang kuat yang ditetapkan oleh tim RPG veteran. Analisis gameplay game Fallout 4 kami ada di homepage. Jika thats what youre cari. Pos ini terlihat secara eksklusif dan mendalam pada pengaturan grafis dan kinerja Fallout 4s di PC. Uji coba benchmark PC Fallout 4 di bawah ini mencakup kinerja GPU nVidia dan AMD, termasuk GTX 750 Ti, 960, 970, 270X, 285, 390X, dan banyak lagi. VRAM dan konsumsi memori juga terlihat longgar di bawah, mudah-mudahan membuat baseline untuk kartu video terbaik untuk Fallout 4 di PC. Karena alat mod belum ada dan pastinya tidak ada mods selama pengujian pra-rilis kami, kami tidak memperhitungkan hit kinerja yang tak terelakkan yang diciptakan oleh mods grafis masa depan. Fallout 4 Pengaturan Grafis Maksimum 4K60 Video Gameplay Menjelaskan Pengaturan Fallout 4s Graphics Pengaturan Fallout 4s cukup sederhana. Siapa pun yang mengenal Skyrim (dan Fallout 3. dan New Vegas) sudah terbiasa dengan mesin Fallout 4, layar pengaturan, dan opsi. Fallout 4 berjalan pada mesin yang sama dengan Skyrim dan file. ini-nya berisi banyak setting yang sama, sehingga sebagian besar tweak dariini. Skyrim dan New Vegas membawa-ke Fallout 4. Anti-Aliasing: Smooths object and texture border Dengan sampling piksel beberapa kali untuk warna. TAA dan FXAA keduanya tersedia. FXAA muncul sebelumnya di Skyrim dan tetap sama di Fallout 4. Pemain yang mengeluhkan blurriness mungkin ingin memastikan FXAA tidak diaktifkan. Anisotropic Filtering: Tekstur teknik filtrasi yang menjamin aplikasi tekstur yang lebih seragam terhadap titik lenyap, mis. Sudut pandang non-miring. Contoh mudahnya adalah jalan dengan garis putih bertitik di tengahnya: Jumlah sampel penyaringan anisotropik yang lebih tinggi akan memastikan bahwa garis putus-putus tetap konsisten dalam penerapannya ke permukaan saat jalan mendekati titik lenyapnya. Menonaktifkan AF berarti garis akan tampak semakin buram dan salah saat menjauhkan diri dari pemain akibat sudut aplikasi. Detail: Dikonfigurasi menjadi rendah, sedang, tinggi, dan ultra. Tab Advanced memberikan pengaturan pengaturan individual. Mode Tampilan: Mode berjendela, layar penuh, dan tanpa batas tersedia. Tekstur Mutu: Mendiktekan resolusi tekstur yang diterapkan pada objek dalam game. Pengaturan kualitas yang lebih rendah akan menghilangkan grit, kedalaman yang jelas, dan detail permukaan yang lebih halus. Signage, misalnya, bisa berasal dari berisi kata-kata aktual dan terbaca menjadi berantakan yang kabur di Low. Hal ini berlaku untuk sebagian besar permainan dengan skala resolusi tekstur. Anda bisa melihat contoh penskalaan kualitas tekstur disini: Black Ops III. Witcher 3. GTA V. Kualitas Bayangan: Resolusi dan detail bayang-bayang dilemparkan oleh objek dalam game. Fallout 4 tidak memiliki banyak detail bayangan yang ditemukan di sebagian besar game lainnya, bahkan di Ultra, dan tidak membuat bayangan untuk sebagian besar item dan juga untuk banyak elemen statis. Meningkatkan Kualitas Bayangan akan menghaluskan batas bayangan dan mengurangi efek piksel marching saat objek dinamis menghasilkan bayangan, dengan biaya siklus GPU tambahan. Jarak bayangan: Jarak di mana bayang-bayang dirender. Bayangan akan masuk dan keluar tergantung jarak pemain sebagai alat penskalaan LOD yang lebih besar. Mengurangi ini akan meningkatkan kinerja, terutama di area yang luas dengan banyak objek yang dipetakan bayangan. Kualitas Decal: Decals paling baik dianggap sebagai stiker yang diterapkan pada lingkungan atau objek saat gameplay terbentang. Darah, titik kontak peluru, dan bekas luka bakar dari bahan peledak semuanya decals. Mengubah setting ini akan menentukan berapa lama decal tetap bertahan dan berapa banyak akumulasi, bersama dengan detail decal secara umum. Kualitas Pencahayaan: Mengubah kesetiaan efek cascade dan kehadiran cahaya. Godrays Quality: Kualitas, hitungan, dan kehadiran sinar cahaya secara umum yang dilemparkan dari atas (disebut godrays), terutama yang berkaitan dengan cahaya yang menerangi benda-benda lain dengan permukaan semi transparan (jendela), melalui geometri padat (cabang pohon), Dan seterusnya. Kedalaman Lapangan: Menerapkan efek film bokeh pada ruang layar yang dianggap out-of-focus ke pemain POV. Oklusi Ambien: Atur cahaya dan aplikasi bayangan ke permukaan yang berdekatan. Paling mencolok di bagian bawah dedaunan dan tanaman. Menonaktifkan Oklusi Ambient akan menghilangkan banyak naungan dari permainan, yang sudah kurang, dan menyederhanakan cara cahaya berinteraksi dengan beberapa bahan dan permukaan yang berdekatan. Refleksi Ruang Layar: Centang kotak toggle. Refleksi sadar ruang layar (diatur sebagian oleh oklusi ambien) akan muncul saat cahaya berinteraksi dengan logam bahan reflektif, lapisan atas glossy, jendela, dll. Kelarutan: Centang kotak ubah. Mengaktifkan atau menonaktifkan benda-benda yang bisa basah karena menghadapi air. Efek basah menggunakan kemilau pada permukaan benda yang terkena. Oklusi Hujan: Nonaktifkan ini saat mengalami lag secara khusus selama kejadian cuaca hujan. Dictates apakah hujan tunduk pada efek oklusi. Motion Blur: Cukup jelas untuk menonaktifkan jika menginginkan pengalaman yang kurang kabur. Lens Flare: Michael Bays favorit adalah toggle yang memungkinkan atau menonaktifkan suar lensa saat kamera berada pada sudut tertentu pada sumber cahaya. Object Fade: Jarak tempat objek non-aktor seperti signage, tong sampah, atau elemen non-item lainnya mulai lenyap dari kamera atau pop-in untuk dilihat. Aktor Fade: Jarak tempat objek aktor (NPC) pop-in atau lenyap dari tampilan kamera. Rumput Fade: Seperti di atas dua, tapi untuk rumput lebih rendah ini pertama jika tertinggal saat bepergian melalui perbukitan hillsgrassy. Item Fade: Jarak tempat item drop atau item pop-in atau pudar dari tampilan. Detail Objek Jauh: LOD benda yang jauh. Meningkatnya setting ini akan meningkatkan kompleksitas geometris (kualitas jala) benda yang jauh dari pemain. Detail Objek Fade: Seberapa cepat rincian objek yang pudar memudar tapi bukan objek itu sendiri dari tampilan pemain. Penskalaan LOD yang memungkinkan objek tetap terlihat tanpa mengeluarkannya sepenuhnya. Fallout 4 PC Video Card Benchmark - 980 Ti, 970, 390X, 270X, Metodologi Uji Video Lebih Kami menguji menggunakan bangku tes multi-GPU 2015 kami, yang dijelaskan dalam tabel di bawah ini. Terima kasih kami untuk mendukung vendor perangkat keras untuk memasok beberapa komponen uji. Driver Fallout 4 NVidias yang belum dirilis digunakan untuk pengujian, termasuk optimasi Fallout 4. Driver Catalyst AMD terbaru (15.11 beta) digunakan untuk pengujian. Pengaturan permainan dikonfigurasi untuk Ultra dengan penggantian ultra di mana preset yang tidak dipilih, Medium, dan Rendah pada resolusi 1080p, 1440p, dan 4K. Begitu kami menentukan pengaturan mana yang menyediakan tingkat muatan yang masuk akal untuk kartu video yang sesuai, kami terus maju menguji konfigurasi pada rangkaian GPU kami. Setiap skenario diuji selama 30 detik identik, lalu diulang tiga kali untuk paritas. Kami diuji di Diamond City, kota besar pertama yang bisa dijangkau pemain. Kami menemukan bagian Diamond City untuk menghasilkan beban yang sangat intensif, dengan gap kinerja selebar hampir 60 dalam beberapa kasus. Hal ini membuat Diamond City menjadi wilayah yang kurang optimal dalam permainan yang mewakili skenario beban campuran yang dijalankan uji coba dimulai dengan kamera mengarah ke wilayah kota yang diduduki, kemudian bergerak di sekitar koridor yang jauh lebih intensif. Hasilnya adalah beban GPU campuran yang 100 bereproduksi dan mewakili pengalaman bermain di dunia nyata. Video kami di atas menunjukkan kursus yang kami gunakan. Ini dipilih untuk reproduktifitas dan reliabilitasnya selama tes. Tolok ukur yang tidak tepat meniru tentu saja kita ambil akan bervariasi hasilnya, tergantung dari bidang permainan apa yang mereka eksekusi. GN Test Bench 2015 FPS rata-rata, 1 rendah, dan 0,1 kali diukur. Kami tidak mengukur hasil FPS maksimum atau minimum karena kami menganggap angka ini sebagai outlier murni. Sebagai gantinya, kita mengambil rata-rata hasil terendah 1 (1 rendah) untuk menunjukkan penurunan nyata dan nyata, kemudian kita mengambil rata-rata hasil 0,1 terendah untuk lonjakan yang parah. GPU di bawah diuji: Pengaturan yang Diuji Kami menguji permainan dengan menggunakan pengaturan ini: 4K, semuanya diatur ke Ultra (pengaturan maksimal). 1440p, semuanya diatur ke Ultra (pengaturan maksimal). 1080p, semuanya diatur ke Ultra (pengaturan maksimal). 1080p, semuanya diatur ke medium. 1080p, semuanya diatur ke rendah. FPS Caps. ini Tweaking in Fallout 4 Tolok ukur tidak mungkin dilakukan dengan framerate terkunci. Agar dapat menilai secara akurat nilai kinerja absolut dari kartu video, kami menonaktifkan semua teknologi penguncian frame rate selama pengujian. Itu termasuk G-Sync dan FreeSync, V-Sync. Dan apa pun yang ada di balik tenda permainan. Di Fallout 4, kami harus menavigasi ke dokumen permainan saya setelah 4Fallout4Prefs. ini dan atur iPresentInterval ke 0. Ini menonaktifkan cap framerate dan, akibatnya, tampaknya menghilangkan perilaku tikus palsu. File ini akan ditimpa segera setelah meluncurkan permainan lagi, jadi siapa pun yang meminjam metodologi kami ke bangku cadangan hanya perlu mengatur file untuk dibaca saja. Ada file preferensi khusus yang dibayangkan Id harus bertindak sebagai pengganti berkas inti. ini, namun saat ini saya tidak yakin cara menggunakannya, jadi kami mengikuti metode baca-saja. Ramalan 4 VRAM RAM Konsumsi Dalam pengujian pemanfaatan sumber daya awal, kami menemukan bahwa pengaturan 1080max menuntut memori yang dibutuhkan sekitar 4,8GB (set kerja 2,4GB, atau RAM fisik), yang merupakan sedikit kurang dari seperempat dari apa yang kami lihat dari Black Ops. Perbedaan besar. Tapi Fallout adalah yang masuk akal di sini, pasti. Gamer cukup bisa menggunakan 8GB (atau serendah 4GB, tapi itu mendorongnya dengan tugas latar belakang) dari RAM sistem untuk Fallout 4. Pengaturan 1080max yang sama digunakan di bawah VRAM 3GB setiap saat, umumnya mendekati 2.6-2.9GB. Initial Anti-Aliasing Other Settings Temuan Kami melakukan beberapa pengukuran FPS pre-bench non-resmi yang tidak resmi untuk menentukan, secara internal, apakah sebaiknya kita mengaktifkan FXAATAA saat menguji Fallout 4. Kami melihat perbedaan minimal secara umum (kurang dari 3, dalam kebanyakan kasus ), Bahkan di 4K, dan memilih untuk meninggalkan TAA untuk benchmark Ultra. Kami juga menemukan, seperti di atas, bahwa setting Shadow Distance menjadi nilai yang lebih ketat (Medium, yaitu) segera melihat FPS berdasar berwujud di kisaran 16.87. Ini akan menjadi salah satu tempat pertama yang bisa dilakukan bagi siapa saja yang mencoba memperbaiki kinerjanya namun ia tetap berada pada setting tertinggi untuk tes Ultra kami. Fallout 4 4K Ultra Benchmark GTX 980 Ti vs 390X, 970, 290X, Lebih Saya sedikit terkejut melihat 980 Ti dan 390X berjuang sangat banyak dengan Fallout 4. Kedua kartu tersebut menyentuh metrik 60FPS yang ajaib, namun kami menemukan bahwa pada umumnya Permainan tetap dimainkan dalam rentang 45-50FPS (tidak seperti penembak cepat misalnya Black Ops III). Pembaca reguler akan memperhatikan bahwa Fallout 4 hampir sama menuntutnya dengan Black Ops III, permainan yang, secara objektif, lebih unggul secara teknologi di departemen grafis. Masalahnya dengan Fallout adalah permainannya yang terbuka, sehingga jarak pandang berjalan jauh lebih tinggi sehingga lebih banyak untuk melihat jarak yang lebih jauh. Bahkan di peta Black Ops terbesar, ada banyak kebingungan yang tampak dekat (bangunan, elemen cetakan) yang tidak menarik jarak jauh sejauh ke arah Fallout. Ini adalah perbedaan metodologis utama dalam pelaksanaan setiap permainan. Tapi Fallout masih tampak terlalu menuntut untuk permainan penampilannya. Seperti berdiri sekarang, permainan ini secara efektif tidak dapat dimainkan pada kebanyakan solusi GPU tunggal di 4K. Ada argumen yang harus dibuat bahwa 46FPS AVG dapat dimainkan, tapi itu adalah jalur yang bagus untuk berjalan. Fallout 4 1440p Ultra Benchmark GTX 980 Ti vs 390X, 970, 290X, 960, Lebih Seperti yang diharapkan, AMD menunjukkan pembeda pembuatnya dalam tes resolusi yang lebih tinggi. R9 390X mendarat tepat di antara GTX 970 dan MSI GTX 980. Fallout 4 cukup dimainkan pada 1440p pada kartu kelas setara atau superior dengan R9 290X dan GTX 970. Kartu 285 dan 960 tidak mampu menahan siklus dan saturasi bandwidth. Dari resolusi yang lebih tinggi. Fallout 4 1080p Ultra Benchmark GTX 980 Ti vs 390X, 970, 290X, Lebih Pertama, yang jelas: Paten GPU 1080p, seperti yang Anda lihat, menempatkan GTX 970 di atas R9 390X sekitar 5.1. Kami tidak mengharapkan hal ini terjadi di Fallout 4 dan mengajukan untuk memvalidasi temuan. Kami pikir menikah dengan setting yang menciptakan keunggulan 970s saat mengutak-atik setiap opsi, yang pada akhirnya menyadari bahwa Shadow Distance terkena dampak hasil hampir 20FPS cukup untuk menutup celah tapi kemudian menghasilkan hasil awal saya. Saat mengatur Shadow Distance ke setting terendahnya (medium) pada kedua R9 390X dan GTX 970, hasilnya masih mengeposkan 970 dengan beberapa frame di depan 390X. Sebenarnya, hampir sama 5 celahnya. Bukan Shadow Distance-nya. Kami mencoba setiap setting lain dan tidak dapat menemukan satu yang menghasilkan kinerja yang sangat baik untuk AMD saat tidak melakukan hal seperti itu untuk nVidia. Itu membuat saya percaya bahwa ini adalah pengoptimalan permainan atau, lebih mungkin, masalah pengoptimalan driver. Kami menghubungi AMD akhir pekan lalu untuk mencari driver Fallout 4 day-one yang tak terelakkan, namun diberi tahu bahwa werent sudah siap. Ada kemungkinan bahwa 390X akan melampaui GTX 970 pada 1080p dengan update driver atau permainan optimasi patch, namun data (seperti di bawah) adalah bagaimana berdiri sekarang. Pengaturan 1080ultra memungkinkan Fallout 4 untuk merayap ke wilayah 225 GTX 960 dan R9 285 (206), yang juga mencakup (tidak ada) R9 380. GTX 950 tidak cukup untuk mendorong 1080ultra, 960 dapat membuatnya bekerja dengan Beberapa tweaker ringan atau hanya dengan menerima 50FPS, dan R9 285 beroperasi pada rata-rata 54FPS. R9 285 tank dengan frekuensi rendah 0,1 sampai 30 pada kesempatan tertentu, namun tidak ada yang merusak pengalaman. Berdasarkan grafik ini, untuk bermain Fallout 4 di 1080max memerlukan sekitar GTX 960 (225) atau R9 380 (230) untuk fluiditas terbaik selama beban kerja puncak dalam game. Pengaturan tuning ke High akan memungkinkan GTX 950 (170) dan usang R9 270X (setara: R7 370 untuk 150) untuk mendekati rentang FPS yang dapat dimainkan. Pada high-end, GTX 980 Ti, 980, 970, R9 390X, dan R9 290X adalah semua pemain berperforma handal yang secara teratur melebihi 60FPS menggunakan 1080ultra. Fallout 4 bukan jenis permainan yang Anda butuhkan lebih dari 60FPS, terutama karena mendapat kunci FPS yang membatasi framerate menjadi 60 secara default. Fallout 4 1080p Medium Low Benchmarks GTX 750 Ti, R7 270X Hanya untuk kartu low-end. Kami tidak menghabiskan banyak waktu di sini. Kesimpulan: Kartu Video Terbaik untuk Fallout 4 Fallout 4 adalah permainan yang aneh. Ini tidak terlihat pada semua yang mengesankan maksud saya, lihat saja screenshot di atas. Anda benar-benar dapat menghitung poligon di fencepost yang kurang dari 40, pasti. Pagar itu sendiri merupakan penghalang datar dengan kedalaman nol. Permainan, secara obyektif, tertanggal dalam presentasi visualnya. Itu tidak membuat permainan buruk review kami benar-benar menunjukkan sebaliknya tapi itu membuat grafisnya kurang mengesankan dengan standar modern. Rabu berharap kinerja menjadi bintang mengingat estetika yang disederhanakan ini, namun jarak pandang Fallouts yang sangat besar dan aplikasi bayangan banyak memakannya. Bagi siapa saja yang mencoba mencapai framerate lebih tinggi daripada yang ditunjukkan di sini, nantikanlah terlebih dahulu menurunkan Shadow Distance, lalu tabingkan beberapa pengaturan jarak pandang dengan jumlah yang sederhana. Bagaimanapun, untuk bermain di 1080ultra dalam skenario terburuk, Anda akan menginginkan sesuatu seperti 230 R9 380 (tidak ada) atau GTX 960 (225). R9 390X bekerja dengan baik untuk 1440p dan akan menjadi go-to kami, kurang memilih nVidias GTX 980 di Update: Lihat benchmark Volumetric Lighting kami di sini. 4K hanya isnt dimaksudkan untuk solusi GPU tunggal saat ini, terutama tidak pada pengaturan max dan melihat jarak. Sedangkan untuk setting yang lebih rendah, siapapun yang nyaman mengkompromikan Ultra for Medium bisa meraih GTX 950 untuk pengalaman 60FPS yang solid. Pengguna pengaturan rendah dapat membuat pekerjaan 750 Ti dalam keadaan darurat, namun pegangan R9 270X dengan sendirinya sangat baik. 270X sekarang sudah tidak berlaku lagi, namun telah diganti dengan R7 370 secara efektif. Jika Anda menyukai liputan kami, mohon pertimbangkan untuk mendukung kami di Patreon. - Steve Lelldorianx Burke. Tambahan pembandingan oleh Mike Gaglione. Ramesh Raskar. Associate Professor, Direktur Proyek Lab MIT Media (raskar (at) mit. edu) Moungi G. Bawendi. Profesor, Departemen Kimia, MIT Andreas Velten. Postdoctoral Associate, MIT Media Lab (velten (at) mit. edu) Everett Lawson. MIT Media Lab Amy Fritz. Lab Media MIT Di Wu. MIT Media Lab dan Tsinghua U. Matt Otoole. MIT Media Lab dan U. dari Toronto Diego Gutierrez. Universidad de Zaragoza Belen Masia. MIT Media Lab dan Universidad de Zaragoza Elisa Amoros, Universidad de Zaragoza Kami telah membangun sebuah solusi pencitraan yang memungkinkan kita untuk memvisualisasikan propagasi cahaya. Waktu pemaparan yang efektif dari setiap frame adalah dua triliun detik dan visualisasi yang dihasilkan menggambarkan pergerakan cahaya sekitar setengah triliun frame per detik. Pencatatan langsung cahaya tercermin atau terpencar pada frekuensi frame seperti itu dengan kecerahan yang cukup hampir tidak mungkin. Kami menggunakan metode stroboscopic tidak langsung yang mencatat jutaan pengukuran berulang dengan pemindaian hati-hati pada waktu dan sudut pandang. Lalu kita atur ulang data untuk membuat film acara panjang nanosecond. Perangkat ini telah dikembangkan oleh MIT Media Lab8217s Camera Culture group yang bekerja sama dengan Bawendi Lab di Departemen Kimia di MIT. Denyut nadi laser yang berlangsung kurang dari satu triliun detik digunakan sebagai lampu kilat dan lampu yang kembali dari tempat kejadian dikumpulkan oleh kamera dengan kecepatan setara dengan setengah triliun frame per detik. Namun, karena waktu pemaparan sangat singkat (sekitar dua triliun detik) dan bidang pandang kamera yang sempit, video tersebut ditangkap selama beberapa menit dengan pengambilan sampel berulang dan berkala. Teknik baru, yang kita sebut Femto Photography. Terdiri dari iluminasi laser femtosecond, detektor picosecond-accurate dan teknik rekonstruksi matematis. Sumber cahaya kami adalah laser Sapphire Titanium yang memancarkan pulsa secara berkala setiap 13 nanodetik. Pulsa ini menerangi pemandangan, dan juga memicu tabung beruntun akurat picosecond yang menangkap cahaya yang kembali dari tempat kejadian. Kamera streak memiliki bidang pandang yang wajar dalam arah horizontal namun sangat sempit (kira-kira setara dengan satu garis pemindaian) dalam dimensi vertikal. Pada setiap rekaman, kita hanya bisa merekam film 1D dari bidang pandang sempit ini. Dalam film tersebut, kami merekam kira-kira 480 frame dan setiap frame memiliki waktu paparan minus 1,71 picosecond. Melalui sistem cermin, kita mengarahkan pandangan kamera ke berbagai bagian objek dan menangkap film untuk setiap tampilan. Kami mempertahankan penundaan yang pasti antara pulsa laser dan waktu mulai film kami. Akhirnya, algoritma kami menggunakan data yang diambil ini untuk membuat film 2D masing-masing dengan 480 frame masing-masing dengan waktu pemaparan yang efektif sebesar 1,71 picosecond. Di luar potensi dalam visualisasi artistik dan pendidikan, aplikasi mencakup pencitraan industri untuk menganalisis kesalahan dan sifat material, pencitraan ilmiah untuk memahami proses ultrafast dan pencitraan medis untuk merekonstruksi elemen sub-permukaan, yaitu ultrasound dengan cahaya. Selain itu, analisis jalur foton akan memungkinkan bentuk baru fotografi komputasi. misalnya Untuk membuat dan menyalakan kembali foto dengan menggunakan teknik grafis komputer. Referensi A. Velten, R. Raskar, dan M. Bawendi, Kamera Picosecond untuk Time-of-Flight Imaging, dalam Aplikasi Sistem Imaging. OSL Technical Digest (CD) (Optical Society of America, 2011) Link Slow art dengan kamera triliun frame per detik, A Velten, E Lawson, A Bardagiy, M Bawendi, R Raskar, Siggraph 2011 Talk Link R Raskar dan J Davis, Matriks transportasi ringan waktu: Apa yang dapat kita pikirkan tentang adegan properties8221, Juli 2007 Pertanyaan yang Sering Diajukan Bagaimana seseorang dapat mengambil foto foton bergerak pada satu triliun frame per detik Kami menggunakan detektor akurat pico-second. Kami menggunakan imager khusus yang disebut streak tube yang berperilaku seperti osiloskop dengan trigger dan deflection balok yang sesuai. Denyut nadi memasuki instrumen melalui celah sempit di sepanjang satu arah. Hal itu kemudian dibelokkan ke arah tegak lurus sehingga foton yang sampai pertama kali menghantam detektor pada posisi yang berbeda dibanding foton yang datang kemudian. Citra yang dihasilkan membentuk seberkas cahaya. Tabung streak sering digunakan dalam kimia atau biologi untuk mengamati benda berukuran milimeter namun jarang untuk pencitraan ruang bebas. Dapatkah Anda menangkap kejadian apapun pada frame rate ini Apa keterbatasan Kami TIDAK dapat menangkap kejadian sewenang-wenang pada resolusi waktu picosecond. Jika acara tidak berulang, rasio signal-to-noise yang dibutuhkan (SNR) akan membuat hampir tidak mungkin untuk menangkap acara tersebut. Kami memanfaatkan fakta sederhana bahwa foton secara statistik akan melacak jalur yang sama dalam iluminasi berdenyut berulang. Dengan menyelaraskan secara hati-hati pencahayaan berdenyut dengan menangkap cahaya yang dipantulkan, kami merekam piksel yang sama pada slot waktu relatif tepat yang sama jutaan kali untuk mengumpulkan sinyal yang cukup. Resolusi waktu kita adalah 1,71 picosecond dan karenanya setiap aktivitas yang terbentang lebih kecil dari 0.5mm akan sulit untuk dicatat. Bagaimana ini dibandingkan dengan menangkap video peluru yang bergerak Sekitar 50 tahun yang lalu, Doc Edgerton menciptakan gambar yang menakjubkan dari benda-benda yang bergerak cepat seperti peluru. Kami mengikuti jejaknya. Di luar eksplorasi ilmiah, video kami bisa menginspirasi visualisasi artistik dan pendidikan. Teknologi kunci saat itu adalah penggunaan flash durasi yang sangat singkat untuk membekukan mosi. Cahaya bergerak sekitar satu juta kali lebih cepat dari peluru. Untuk mengamati foton (partikel cahaya) yang bergerak membutuhkan pendekatan yang sangat berbeda. Peluru dicatat dalam satu tembakan, yaitu tidak perlu menyalakan peluru. Tapi untuk mengamati foton, kita perlu mengirimkan pulsa (peluru cahaya) jutaan kali ke dalam adegan. Apa yang baru tentang pendekatan Femto-photography Teknologi pencitraan modern menangkap dan menganalisis pemandangan dunia nyata dengan menggunakan gambar kamera 2D. Gambar-gambar ini sesuai dengan transportasi cahaya steady state dan mengabaikan penundaan propagasi cahaya melalui pemandangan. Setiap sinar cahaya mengambil jalur yang berbeda melalui pemandangan yang berisi sejumlah besar informasi yang hilang saat semua sinar cahaya dirangkum di piksel kamera tradisional. Cahaya bergerak sangat cepat (1 kaki dalam 1 nanosecond) dan cahaya sampling pada skala waktu ini jauh melampaui jangkauan sensor konvensional (kamera video cepat memiliki eksposur mikrosekopi). Di sisi lain, teknik pencitraan LiDAR dan Femtosecond seperti tomografi koherensi optik yang menggunakan penginderaan ultra cepat dan pencahayaan laser hanya menangkap cahaya langsung (foton balistik) yang berasal dari tempat kejadian, namun mengabaikan cahaya yang dipantulkan secara tidak langsung. Kami menggabungkan kemajuan terbaru dalam perangkat keras dan pencahayaan ultra cepat dan teknik rekonstruksi yang mengungkapkan informasi yang tidak biasa. Apa tantangan Sensor elektronik tercepat memiliki waktu pemaparan dalam nanodetik atau ratusan picosecond. Untuk menangkap propagasi cahaya di panggung meja kita membutuhkan kecepatan sensor sekitar 1 ps atau satu triliun frame per detik. Untuk mencapai kecepatan ini kita menggunakan tabung streak. Kamera streak menggunakan trik untuk menangkap bidang pandang satu dimensi hampir satu triliun frame per detik dalam satu gambar beruntun. Untuk mendapatkan film adegan lengkap, kami menjahit banyak gambar beruntun ini. Film yang dihasilkan bukan satu pulsa, tapi rata-rata banyak pulsa. Dengan hati-hati menyinkronkan laser dan kamera kita harus memastikan masing-masing pulsa itu terlihat sama. Bagaimana instrumen rumit ini akan keluar dari laboratorium Perangkat pencitraan ultrafast saat ini cukup besar. Sumber laser dan kamera berkecepatan tinggi pas di bangku optik kecil dan perlu dikalibrasi dengan hati-hati untuk dipicu. Namun, ada penelitian paralel pada laser solid-state femtosecond dan mereka akan sangat menyederhanakan sumber iluminasi. Selain itu, kemajuan dalam komunikasi optik dan komputasi optik menunjukkan janji besar untuk sensor optik kompak dan cepat. Meski begitu, dalam jangka pendek, kami sedang membangun aplikasi yang portabilitasnya tidak begitu penting. Pekerjaan Terkait P Sen, B Chen, G Garg, S Marschner, M Horowitz, M Levoy, dan H Lensch, 8220 Fotografi visual8221, di ACM SIG. 821705 SM Seitz, Y Matsushita, dan KN Kutulakos, teori transpor lampu inversi 8220A8, ICCV 821705 SK Nayar, G Krishnan, M Grossberg, dan R Raskar, 8220 Pemisahan sempurna komponen global dan langsung dari suatu adegan dengan menggunakan penerangan frekuensi tinggi8221, dalam SIGGRAPH 821706 K Kutulakos dan E Steger, teori 8220A bentuk 3d refraktif dan specular oleh triangulasi jalur ringan8221, IJCV 821707. B. Atcheson, I. Ihrke, W. Heidrich, A. Tevs, D. Bradley, M. Magnor, H . - P. Seidel, Time-resolve 3D Capture Aliran Gas Non-stasioner Siggraph Asia, 2008 Presentasi, Video dan Berita Berita Liputan Berita: The New York Times. Kecepatan Celana Cahaya di Wajah Kamera Baru MIT News. Video tri-frame per detik. Dengan menggunakan peralatan optik dengan cara yang sama sekali tak terduga, peneliti MIT telah menciptakan sistem pencitraan yang membuat cahaya terlihat lamban. BBC: MIT Light Tracking Camera Melanie Gonick, Berita MIT Ucapan Terimakasih Kami berterima kasih kepada seluruh kelompok Camera Culture atas dukungannya yang tak henti-hentinya. Penelitian ini didukung oleh hibah penelitian dari sponsor MIT Media Lab, MIT Lincoln Labs dan Army Research Office melalui Institute for Soldier Nanotechnologies di MIT. Ramesh Raskar didukung oleh Alfred P. Sloan Research Fellowship 2009 dan DARPA Young Faculty award 2010. Proyek terbaru di kelompok Camera Culture Situs ini menunjukkan kepada Anda bagaimana membuat video DivX yang cemerlang (dari TV, DVB, DV, DVD dll) untuk tujuan pengarsipan ATAU cara mengurangi ukuran file untuk menghasilkan rekaman DivX yang bagus namun kecil. Jika Anda berurusan dengan DivX, situs ini menampilkan beberapa statistik video dan eksperimen, yang mungkin menarik bagi semua penerbit video dan penggemar DivX. Sebagian besar situs ini membahas interlacingdeinterlacing yang mengenalkan beberapa masalah interlace yang paling menjijikkan seperti ini: Silakan juga mengunjungi situs saya yang lain eBook Download ebooks-download (dengan program afiliasi) Tiny Google Startpage untuk Browser Anda tigoo Matrix Reloaded Explained matrix-explain Free Tips Kencan 100-dating-tips File Freeware Saya 1-4a Apakah Anda pikir Anda merekam 25 frame per detik saat Anda membuat film dengan camcorder digital Anda Camcorder digital Anda melakukan hal berikut: Mencatat 50 gambar per detik, mencampuradukkan setiap 2 gambar berturut-turut ( Dengan setengah tinggi) menjadi 1 bingkai. Sebenarnya, Anda tidak menyebut mereka gambar, tapi bidang. Jadi 2 bidang dicampur menjadi 1 frame. Pencampuran ini disebut interlacing. Berikut adalah contoh dari apa yang camcorder digital Anda lakukan: Capture field1 (menangkap setengah tinggi, atau tinggi penuh dan kemudian mengubah ukurannya ke bawah): Mereka terlihat sangat mirip. Tapi tunggu, mereka berbeda. Anda bisa melihat dengan membandingkan posisi ibu jari dan tombol keyboard. Sekarang kedua bidang ini dicampur (interlaced) ke Frame1 (tinggi penuh): Apa yang Anda lihat di atas adalah bingkai yang tepat seperti pada kaset camcorder Anda. Berikut adalah tampilan yang diperbesar dari Frame 1 di atas: Seperti yang dapat Anda lihat dengan jelas di atas, Frame1 terdiri dari Field1 dan Field2. Cara tampilannya disebut gigi gergaji tipe distorsi gigi tikus menyisir gerigi garis interlaced. Dengan kata lain: Bingkai tunggal terdiri dari 2 tangkapan dari 2 momen berbeda pada waktunya. Field1Time1, Field2Time2. Lihat bingkai di bawah ini. Ini adalah capture langsung dari MTVs Digital Video Broadcasting: Adegan di atas terdiri dari 2 scene yang sama sekali berbeda karena ini adalah frame dimana ada perubahan dari scene1 ke scene2. Scene2 (Ini adalah penampilan Britney Spears di MTV Video Music Awards 2001) Karena saat ini intermix (1 frametime1time2) tidak mungkin untuk: deinterlace sebuah frame tetap menjaga kualitas penuh (semua informasi gambar). Mustahil. Anda harus mengubah setidaknya satu dari poin-poin itu. Kecuali, saat tidak ada gerak. Pada layar komputer rekaman interlaced menjengkelkan untuk ditonton karena garis-garis itu benar-benar mengganggu. Terutama di adegan di mana gerakan dari kiri ke kanan (kanan ke kiri) Anda melihat interlacing, seperti pada contoh ini: Teks di bagian bawah gulungan dari kanan ke kiri dan dengan demikian membuat Anda memiliki gigi tikus karena bingkai ini terdiri dari 2 foto dari Waktu, seperti yang dijelaskan di atas. Gigi tikus karena gerakan naik-turun. Ini adalah adegan dari klip musik quotAnywherequot dari pemain 112. Di sana ada garis interlace gerak di sana, tapi ini adalah bingkai di mana ada kilatan pendek, sehingga ada perbedaan dari satu bidang ke bidang lainnya. Untuk membuat segalanya semakin rumit, beberapa camcorder digital memiliki sesuatu yang bisa Anda sebut quotcolor interlacingquot. Sementara istilah ini mungkin agak tidak akurat untuk menggambarkan sumber artefak, cukup deskriptif untuk hasil akhirnya. Tapi bahkan setelah deinterlacing beberapa merah dan beberapa piksel hijau tinggal di mana bidang terakhir. Berikut adalah contoh lain (setelah deinterlacing): Beberapa camcorder memadukan warna yang berbeda ke dalam berbagai bidang, atau menggunakan CCD yang bereaksi lebih lambat, sehingga terkadang Anda mendapatkan pola warna aneh ini. Selanjutnya ada camcorder dengan bugsquot quothardware yang diketahui yang menghasilkan warna halo atau warna perdarahan atau warna yang mengolesi (contoh di atas yang difilmkan dengan Sony PC110, yang memiliki ciri khas quotolor behaviourquot ini). Selanjutnya ada sesuatu seperti warna unsharpness yang dihasilkan dari kenyataan, bahwa resolusi warna lebih rendah dari resolusi gambar, artinya misalnya 4 pixel berbagi 1 warna. Selanjutnya ada penyimpangan warna yang diperkenalkan oleh sistem lensa camcorder. Selanjutnya bisa ada codec DV yang rusak, yang memecahkan kode buggy. Anda bisa mencoba codec DV Mainconcepts () yang memiliki reputasi tinggi, jika Anda tidak mempercayai codec Anda sendiri. Bahkan ada yang bisa Anda sebut kecekatan interlacing. Ini adalah penangkapan dari klip musik quotSexyquot yang dilakukan oleh quotFrench Affairquot dari saluran TV Tango TV (dari Luxembourg). Klip musik ini ditayangkan secara progresif. Tidak ada gigi tikus mana pun di klip ini. Namun Anda melihat quotbrightness interlacing linesquot. Mungkin klip ini direkam interlaced dan kemudian ditransformasikan menjadi progresif dan ini adalah artefak deinterlacing kiri. Karena meski dengan metode yang dijelaskan di situs ini sulit mendapatkan hasil yang sempurna. Tidak, bukan Kylie Minogue dan dokter gigi gaynya. Kylie yang cantik dan Jason Donovan yang cantik melakukan quotEspecially untuk Anda pada tahun 1988 di quotTop of the Popsquot Seperti yang Anda lihat ada beberapa artefak deinterlacing. Namun, Anda tidak akan memperhatikannya saat bermain. Is interlacing a bug Unfortunately this is the way digital camcorders and digital VCRs record and digital broadcasting is done. One second of a movie consists of 25 frames 50 interlaced images. That means that when you deinterlace a movie for your computer or your projector or your TFT monitor, and you want to play it on a standard TV set, your software (or your hardware) have to interlace it again. Example: There are 2 kinds of DVDs: Some have an interlaced format (like the examples above) and some are transferred from film to DVD directly, thus have 25 progressive frames encoded. This is purely a decision of the DVD company. Since TV sets expect you to feed them with 50 images per seconds (whether its from your old analog VHS recorder or from your antenna or from your DVD player) the DVD player needs to convert those 25 progressive frames to 50 images and send them to the TV set. That means they have to get interlaced them (well, its not interlacing in its original sense, but you are making 50 images out of 25 images) instead of letting the TV simply display those original 25 fps. Just recently Panasonic introduced one of the first TV sets to be able to receive progressive frames from the DVD player. So you need 2 things: A special DVD player, that suppresses the 25p-gt50p conversion and this special TV set. Panasonic TX 32ph40d is able to receive progressive frames (Field1 and 2 are half the height of course, but I have resized them to make them comparable) Blending would do this to them: Please note, that not only the area where the movement happened is changed thru blend, but also the green main body. If nothing changes from field to field then quotDeinterlacing by Blendingquot gives you a slight blur. In other words: Deinterlacing by blending (which is one of the most frequent ways to deinterlace) simluates fluent motion by blurring and quotmushesquot 2 consecutive pictures together. Thus in fact you reduce the quality down to a quarter of the possible quality. You could call it: Show both fields per frame. This basically doesnt do anything to the frame, thus it leaves you with mice teeth but with the full resolution, which is good when deinterlacing is NOT needed. You could call it: Dont blend everything but only the mice teeth themselves. This can be done by comparing frames by time or by spaceposition. This gives you good results in quiet scenes where not much is moving, because there is nothing blurred then. You could call it: This seems to me a much better idea than Blending, but unfortunately I dont know any filter or program that can do it. The idea is: Blur the mice teeth where needed, instead of mixing (blending) them with the other field. This way you would get a more film-like look. As you see the blur gets stronger in the direction of the old position. You could even add an effect like this (Motion blur) This motion blur is done nowadays when you need to convert 50fps footage to 25fps footage (to make 50fps camcorder footage look more film-like). Or to make comics and rendering (like quotMonsters Incquot) look more film-like. You could call it: You discard every second line (the movie is half the height then) and then resize the picture during play. That is the same as skipping Field2, Field4, Field6. You could call this quotEven Fields Onlyquot or quotOdd Fields Onlyquot. There are some bad things about it. You lose half of the resolution and the movie becomes kind of stuttering (as mentioned above). That means, that it doesnt play as fluidly as it could be. You could call it: There is also this way: Displaying every field (so you dont lose any information), one after the other ( without interlacing) but with 50 fps. Thus each interlaced frame is split into 2 frames ( the 2 former fields) half the height. As you see, you wont lose any fields, because both are displayed, one after the other. Sometimes quotBobquot is also called quotProgressive Scanquot. However since Bob doesnt analyze areas (Stupid Bob) nor the differences between fields this is an inappropriate synonym. Please see the next example for the quotrealquot quotProgressive Scanquot. You could call it: Analyzing the two fields and deinterlace only parts which need to. The main difference to quotArea basedquot is that it gives you a 50fps movie instead of a 25fps movie, thus leaving you with perfect fluidity of motions. To say it more academically: High temporal and vertical resolution. This is my method of choice. You can achieve this with freeware. Read the advantages and drawbacks on this site. You could call it: Analyzing the movement of objects in a scene, while the scene consists of a lot of frames. In other words: Tracking of each object that moves around in the scene. Thus effectively analyzing a group of consecutive frames instead of just single frames. This is the best solution, but unfortunately only for companies that can pay for expensive hardware solutions. NEVER BE FOOLED: If you see just one single frame instead of the whole movie to show you the quality of any deinterlacing method, be aware. You wont know how good or bad it really is. Because you dont know how fluid the movie plays and how many fine structures are lost and whether the deinterlacing method still fails sometimes or leaves interlaced lines. Instead, compare the deinterlacing methods by watching one minute or so of both movies with still and fast moving scenes. How fluid is it How blurred is it How many interlacing artifacts are left Fluid movie. Nearly all Video Software is able to do it. Video does not need to be converted to fields first. Picture becomes blurred (unsharp) when theres motion. Compression rates are not too good. Even in quiet areas the video gets blurred. Discarding Fields Single Field Mode Nearly all Video Software is able to do it. Sharp picture. 100 deinterlaced movie. There wont be any interlaced lines left. Video does not need to be converted to fields first. Very fast, even on slow computers, because the method consists only of simply deleting every second line. You lose half of the information. (Though even with half of the information it is still much sharper than blending). You lose a little bit of sharpness in quiet scenes, because each frame is half the height and has to be scaled up. Grain seems to be more coarse because it is double sized during play. Movie is not fluid (kind of stuttering continuously). You need to resize the movie during play, so you need a faster processor. Greater visibility of compression artifacts, because the artifacts stay the same size, while the height is cut in half. In other words: When resizing during play you resize the compression artifacts also. Video does not need to be converted to fields first. If the algorithm is well programmed, it will blur the mice teeth in fast movements while preserving sharpness in quiet (no motion) scenes (or parts of the pictures). Does not always eliminate all interlaced lines. Sometimes eliminates the wrong video data. Sometimes complicated parameters that can differ from video material to video material. Click the pic below, and tell me whats best for your movie: Movie can become unnaturally blurred (unsharp) during movements. 720x576-gt720x288 50 fps Super fluid movie. Sharp picture. 100 deinterlaced movie. There wont be any interlaced lines left. Greater visibility of compression artifacts, because the artifacts stay the same size, while the height is cut in half. In other words: When resizing during play you resize the compression artifacts also. How to prevent resizing artifacts . Jumping artefacts, mostly visible with TV logos (see example below). In quiet scenes without movements (where interlacing would not matter), you lose a little bit of sharpness, because each frame is half the height and has to be scaled up. Only a few software programs are able to deinterlace by bob. You need to resize the movie during play so you need a faster processor. You need to play 50fps, so you need a faster processor or a faster codec. Due to the anti-bobbing filter (see below) the frames are blurred a little bit. Because the movie has to be split into fields by Avisynth (see below), the movie encoding speed is limited by Avisynth, which can be quite slow. The resulting file size is quite big compared to the other methods. Combinations of the methods above DURING PLAY Can result in all the pros of the methods above Can result in all the cons of the methods above Since the material can result in both 25fps and 50fps (switching between these two during play), this method can only be used for watching movies rather than convertingencoding them. I doubt, that there is any program that can do it fast enough. There was a DVD player software that could do it, but I dont know if it was supported by hardware. There is also DScaler, but its useless for me since a) I was never able to get it to work with my 3 WinTV cards b) it doesnt work with recorded movies (just with movies currently displayed) c) it is already partly integrated in WinTV d) its development is very slow (halted) So you want to tell your friends to have a horsepower computer, install a new player, install deinterlacing software and still live with a result worse than deinterlacing properly in the first place resizing down to 384x288 or below The easiest method. Any video editing program can do it, even if it doesnt feature a quotdeinterlace methodquot The file sizes are quite small. The result can be exactly the same as quotBlendquot, except for the heightwidth, which makes the picture a little more unsharp. This is the easiest way to deinterlace videos. Example: you have a typical DV Camera footage of 720x576 (interlaced) and you simply resize it down to 384x288. Why 384x288 Because: 1) 2885762, that means, that its fast to calculate and quality loss is low. 2) 384x288 is 4:3 but mainly for reason 3) Movies that are 288 pixels high and below cannot be interlaced. So 384x288 is the largest size that ensures you have a progressive-frames-only video. Combination of BobWeave (Progressive Scan) 720x576-gt720x576 50 fps Super fluid movie. Unbelievably sharp picture. 99 deinterlaced movie. (99 means that there is a minimal chance that mice teeth stay visible here and there) In quiet scenes without movements (where interlacing would not matter), you keep the full resolution, while the moving scenes are fluid. You dont have to play with bobdebob filters (see below). No resizing is done. This leaves you extra sharpness. Jumping artifacts, mostly visible with TV logos (see example below). Only few software (like Virtualdub and maybe Cleaner ) is able to deinterlace like this. You need to play 50fps, so you need a faster processor or a faster codec. Because the movie has to be split into fields by Avisynth (see below), the movie encoding speed is limited by Avisynth, which can be quite slow. The resulting file size is bigger than with the other methods. See file size comparison link below. 720x576-gt720x576 50 fps Professional hardware equipment can get very expensive. How expensive Can you say 50000 Or think 100000 Then spell T-E-R-A-N-E-X. This is equipment as used for professional broadcasting: Teranex . There is a software solution by the German Fraunhofer Institute (yes, those who invented mp3): HiCon 32. Brilliant piece of work. Some PC graphic cards (e. g. NVidia) and Video cards (e. g. Hauppauge) have implemented onboard deinterlacing. Lets hope this gets standard as time goes by. Despite the above mentioned counterpoints, deinterlacing by quotBobquot or quotWeaveBobquot gives you excellent results (the best results of all available software methods). The reason is simple: How can you expect to have excellent results when you convert 50 fields per second (50 snapshots per second) to 25 snapshots per second If you dont want to use BobProgressive Scan, I would suggest to use Deinterlace by Discarding Fields, because its fast ( can be done with a slow PC) you can do it with the built-in filter of Virtualdub (see below), ( is free and easy to do) the image stays very sharp it leaves absolutely no interlaced lines the resulting filesizes are small I have encoded a video with the above methods and different options to compare the file sizes . Note: When video editing software has an option quotDeinterlacequot without further explanation it pretty sure means quotBlendquot or quotDiscard Fieldquot. Open quot Example. avs quot with Virtualdub and youll notice that you have a movie with fields instead of frames. Half the height, but no interlaced lines. Click here if your. avs produces an error or doesnt work. Now there are 3 ways how you could continue: 4a) The worse method (but still very good): Bob Go to Virtualdubs filter menu and quot Add.. quot the built-in filter quot Field bob quot. Without this filter the movie bobs (jumps up and down). Why does the movie bob Choose quotQuarter scanline downquot amp quotQuarter scanline upquot or vice versa, depending on your video material. If you choose the wrong one, your video will jump up and down even more (like in the Persil commercial below). Unfortunately this anti-bob filter also blurs a little bit. So you can add Virtualdubs built in filter quot Sharpen quot right after quot Field Bob quot and then sharpen the amount you like. 4b) The best method (but more time consuming an bigger file size): Progressive Scan (WeaveBob) Get the following the Virtualdub filter quotDeinterlace - Smooth quot from the website of Gunnar Thalin. Copy it to Virtualdubs quotpluginsquot folder. Go to Virtualdubs filter menu and quot Add.. quot this filter. You may have to check quotAlternate field orderquot within this filter. But this depends upon your movie source. 4c) Not the best and not the worst method is: Bob by Avisynth Simply change the avisynth script quot Example. avs quot to: Select ratio 4:3 from the menu of your player. If your player cannot choose a ratio then you will see the movie half size (but it will still be very fluid). Switch to fullscreen mode. Disable any DivX postprocessing. Postprocessing will slow down the playing speed. Even with little postprocessing the movie wont play fluidly with a fast CPU. So set the Quality level (post-processing level) to quotMINquot. Actually you shouldnt use the standard DivX Decoder from DivX. Get the freeware decoder suite FFDShow . The faster your processor the better. It should be gt 0.6 GHz otherwise you drop frames and it looks as if the movie was badly coded. I have several computers and I can watch the movies below smoothly with my 650Mhz Athlon. It may also depend on the speed of your graphics card. Yes, I know this capture is from an old DivX version. But I wont update it everytime DivX releases a new version. brit. avi (5.4 MB) Bob (method 4a) 50 fps 17 seconds Video Codec: DivX 5 (quality based: 93) Audio Codec: mp3 Directly recorded from MTVs Digital (MPEG-2) Broadcasting and converted to a DivX. avi You have to watch the movie 4:3 1) Please note how fluid the movie is 2) but also note that the MTV logo at the upper right corner is flimmering a bit. More about flimmering. 3) this is not the best quality, because I used quotBobquot instead of quotProgressive Scanquot . 4) Also pay attention to the black dancer at the right, hes quite good. 5) This performance of Britney Spears (MTV VMA 2001) was aired 50fps. Justin Timberlakes performance one year later at the MTV Video Music Awards 2002 was aired also 50fps, but these frames had been artificially interlaced from 25 progressive frames, to make it look more quotfilm-likequot. Interlacing is visible in movies which have a height gt 288 (NTSC: gt 240). So when you capture a movie, say, 384x288 or smaller you wont see interlaced frames. Its practically blending. Some capture cards dont blend but drop every second field with sizes smaller or equal to 288. The term quotHalf ImagequotquotHalf Picturequot is another word for quotFieldquot. The quotHalfquot relates to the fact, that the half resolution (e. g. 288 pixels) of the 2 fields (half images) is combined to full resolution (576 pixels) in quiet areas. In my personal opinion PAL is better than NTSC: Because in the end resolution matters. NTSC has only 83 of PALs resolution. And PALs resolution is already bad enough. Cinema movie are recorded with 24 fps. To convert them to PAL (25 fps) you simply make the movie run faster (4 faster, some people with sensitive ears may hear the raise in tone). But to convert it to NTSC (30 fps) is a completely different story. PAL is more common worldwide than NTSC. About 4 times as many people live in a PAL country than in an NTSC country. I am not talking about other stuff like Hue Fluctuation, Contrast, Gamma ratio and so on ( N ever T he S ame C olor, because of its color problemsquot), because PAL is also not the best in these regards. I am talking about resolution and frame rate which are the biggest arguments for Pal. As you see from the reasons above this has nothing to do with anti-Amerikanism or anti-Japanism. Its just based on pure logic. I have seen PAL movies and NTSC movies and the clarity of PAL is much better. Their fluidity (50 images per second vs. 60 images per second) is nearly the same. There are camcorders (like Panasonics AG-DVX100) that can film with 24 frames per second. Without fields. Just progressive ( non-interlaced) frames. Why 24 and not 25 To give you the cinema feeling. So the info on this site regarding deinterlacing movies doesnt apply to footage filmed like that. When you buy a DVD, some are encoded with interlaced frames and some are progressive. The output is always interlaced of course (except for some special DVD players) because TV Sets usually dont support progressive input. DivX suckz and DivX rulez. DivX rules because the de coder is fast and free. DivX rules because the en coder is good and fast. DivX sucks because its expensive as hell if you want to commercially publish your own movies: You have to pay DivX Networks for the encoder AND for the encoded film if you want to use it commercially. AND you have to pay the MPEG patent holders (mpegla ) per movieper minute (because DivX is Mpeg-4). The MPEGLA fee for itself is already way too high. Please see my website 1-4a for movie utilities.

No comments:

Post a Comment