Posted by: komputasibatan | February 16, 2010

Numerical Analysis of 1-D Heat Conduction

Advertisements
Posted by: komputasibatan | August 5, 2009

Pengembangkan aplikasi LHS dengan Umbrello dan Doxygen

Dalam mengembangkan program, faktor reusaebility sudah selayaknya dipertimbangkan dengan baik agar tidak terjadi pekerjaan yang sama dikerjakan berulang. Dan ketika rancangan program sudah memenuhi faktor reuseability dari kebutuhan kita, dokumentasi program tersebut perlu juga dibuat agar pihak lain yang di kemudian hari akan mengembangkan lebih lanjut, atau menggunakan sebagian dari yang telah kita kembangkan sebelumnya dapat dengan mudah melakukannya.

Doxygen adalah salah  satu tool yang dapat digunakan untuk kebutuhan pembuatan dokumen. Setelah sebelumnya kami menggunakan Umbrello sebagai CASE tool dalam pemodelan UML. Dalam hal ini, kami menggunakan Doxygen rilis 1.5.8 dan Umbrello rilis 2.2.2 dalam mesin Ubuntu 9.04.

Tulisan ini merupakan pengalaman Bidang Komputasi dalam mengembangkan aplikasi analisis ketidakpastian menggunakan metode Latin Hypercube Sampling (LHS). Gambar 1 adalah rancangan object-object utama yang terlibat dalam aplikasi LHS kami yang dibuat dengan Umbrello.

Gambar 1. Objek-objek utama dalam aplikasi LHS

Gambar 1. Objek-objek utama dalam aplikasi LHS

Untuk kebutuhan pembuatan dokumentasi, setiap class berikut attribute dan method yang dimiliki kami buatkan dokumentasinya seperti pada Gambar 2.

Read More…

Posted by: tsdipura | August 4, 2009

Komputasi-isme:Landasan ilmu pengetahuan?

‘Computationism as a foundation for the science’, begitulah judul dari salah satu proyek Global Center of Excellent (G-COE) yang ada di Tokyo Tech Jepang, secara ringkas proyek ini mereka namakan CompView. Proyek ini dimulai tahun 2007, dipimpin oleh Prof. Osamu Watanabe dari Math.&Comp.Sci Tokyo Tech.

Terkait dengan makna dari computationism sendiri tim ini menjelaskan bahwa bila kita menganggap bahwa komputasi adalah apapun yang dapat direpresentasikan ke dalam komputer, maka semua yang dapat dianalisis oleh manusia dapat dipandang dari sudut pandang komputasi. Sudut pandang inilah yang dimaksud dengan komputasi-isme.

Sebagaimana sebuah fenomena alam yang sama saat ini dipandang secara berbeda oleh ahli keilmuan yang berbeda, misalnya seorang fisikawan melihat dari sisi fisika, sementara seorang biologis melihat aspek biologi, maka seorang ahli komputasi pun dapat menawarkan sebuah kerangka berfikir yang bedasarkan pada konsep ilmu komputasi. Sudut pandang ini diharapkan dapat menjadi menghantarkan pada pemahaman yang lebih mendalam atau bahkan memahami fenomena dari aspek yang selama ini belum dilihat. Tujuan umum dari komputasi-isme ini adalah untuk mengembangkan metode penelitian ilmiah baru berdasarkan pandangan ini. Selain melibatkan beberapa divisi yang ada di Tokyo Tech, proyek inipun dikerjakan oleh Dept. Computational Science dari ETH Zurich dan San Diego Supercomputing Center. Langkah yang diusulkan secara detail dapat dilihat di situs CompView.

Termasuk salah satu anggota tim proyek ini adalah Prof. Aoki Takayuki dari Global Scientific Information and Computation Center (GSIC-Tokyo Tech) dan juga sebagai salah satu staf di Departemen Teknik Nuklir Tokyo Tech pada Divisi ‘Energy Informatics’. Prof.Aoki menekuni bidang Computational Fluid Dynamic termasuk aspek komputasi paralel.

Posted by: komputasibatan | July 23, 2009

Perhitungan Kritikalitas dengan MCNP

Posted by: komputasibatan | July 23, 2009

10 Algoritma Terbaik Abad 20

Bangsa Yunani dan Romawi banyak menemukan algoritma ilmiah dan teknik, namun diyakini bahwa nama ‘algoritma’ sendiri diambil dari seorang matematikawan Arab yang hidup di abad ke-19 yaitu Al-Khawarizmi. Al Khawarizmi menulis buku berjudul al-jabr wa’l muqabalach dan saat ini buku ini telah berevolusi menjadi buku acuan untuk pengajaran materi aljabar di sekolah-sekolah. Al Khawarizmi diduga berperan penting  menekankan prosedur sistematik dalam memecahkan permasalahan matamatika.

Setelah itu banyak algoritma-algoritma jenius ditemukan. Dongarra dan Sullivan dalam tulisan mereka berjudul “Top ten algorithms of the century”  (jurnal IEEE Comput.Sci.Eng.,vol.2 issue 1 pp:22-23,january.February,2000) menyebutkan bahwa algoritma-algoritma berikut memiliki peran paling besar di abad ini :

1946 : Metoda Monte Carlo untuk pemodelan penomena probabilistik.

1947 : Metoda Simplex untuk permasalahan optimisasi linier.

1950 : Metoda iterasi subspace Krylov untuk pemecahan masalah nilai eigen dan persamaan linier secara cepat.

1951 : Dekomposisi matriks Householder untuk menyatakan sebuah matriks sebagai hasil perkalian dari beberapa matriks yang lebih sederhana.

1957 : Fortran Compiler yang membebaskan para ilmuwan dan teknisi dari pemrograman level assembly (bahasa tingkat rendah).

1959-1961 : Algoritma QR untuk menghitung banyak nilai eigen.

1962 : Algoritma quickshort untuk mengurutkan berdasarkan urutan angka atau abjad secara cepat.

1965 : Fast Fourier Transform untuk mereduksi jumlah operasi dalam representasi deret Fourier

1977 : Algoritma deteksi relasi integer yang berguna untuk bifurkasi  juga dalam bidang teori medan kuantum.

1987 : Algoritma multipol cepat (Fast multipole) untuk solusi N-body problems.

Ulasan singkat mengenai 10 algoritma ini dibahas oleh Barry A Cipra dalam tulisannya di jurnal SIAM (Society for Industrial and Applied Mathematic) berikut.

Pemodelan bahan bakar nuklir baru dalam tes irradiasi di LANL (http://www.lanl.gov/news/factsheets/energy_security.shtml)

Pemodelan bahan bakar nuklir baru dalam tes irradiasi di LANL dengan metoda monte carlo.

M.Bunyamin juga mengulas sepuluh algoritma ini pada tulisannya yang dipresentasikan pada Lokakarya Komputasi dalam Sains dan Teknologi Nuklir XIII , berikut cuplikan abstrak makalah beliau

—cuplikan abstrak—

SEPULUH ALGORITMA TERBAIK ABAD 20. Berikut disampaikan daftar dan uraian singkat dari “Sepuluh Algoritma Terbaik Abad-20 yang dipilih oleh majalah Computing in Science&Engineering / CiSE, dan dijadikan topik bahasan utama majalah ini terbitan Jan/Feb 2000. Ini 10 algoritma yang paling besar pengaruhnya pada pengembangan praktek sains dan enjiniring di abad-20, dan merupakan rangkuman pengembangan matematika numerik dan sains komputasi sepanjang abad-20. Kita boleh setuju atau tidak dengan pilihan ini, tetapi paling sedikit kita jangan memandang rendah pilihan yang dilakukan oleh para ahli komputasi kelas dunia di negara maju ini. Redaksi majala CiSE telah mengajukan pertanyaan kepada para pembacanya tentang bagaimana pendapat dan perasaan mereka mengenai pilihan ini. Dari beberapa terbitan CiSE berikutnya tampak bahwa ternyata tidak ada perlawanan berarti dari para pembaca, sehingga dapat disimpulkan bahwa pilihan ini sudah dilakukan dengan baik dan dapat diterima oleh masyarakat ilmiah internasional.

—akhir cuplikan abstrak—

Dalam simpulan tulisannya M.Bunyamin memaparkan suatu data terkait 142 sitasi ilmiah mengenai 10 algoritma diatas bahwa hampir 50% sitasi  ditulis diatas tahun 1990, dan 50% lagi antara tahun ’50 dan ’90. Menurut beliau hal ini menujukkan bahwa algoritma-algoritma diatas mengalami pemutakhiran pesat serta aplikasi mulai tahun 1990 seiring dengan semakin berkembangnya sistem komputasi berperforma tinggi.( Tulisan lengkap beliau dapat dilihat pada prosiding LKSTN-XIII ) Hal ini mengindikasikan bahwa di abad 21 akan semakin banyak pengembangan dan aplikasi dari algoritma ini, atau bahkan penemuan algoritma komputasi baru. Terkait kemungkinan di abad 21 ini Dongara dan Sullivan memberi catatan dalam makalah mereka diatas sebagai berikut

“This century will not be very restful for us, but is not going to be dull either”

Ulasan Cipra dan Bunyamin diatas dapat dijadikan perkenalan awal yang baik terhadap 10 algoritma diatas.

Posted by: tsdipura | July 23, 2009

Metoda Ekspansi Nodal XYZ

Berikut tulisan mengenai Metoda Ekspansi nodal, tulisan ini belum lengkap dan masih dalam tahap penyelesaian/penulisan.

Posted by: tsdipura | July 17, 2009

Analisis Ketidakpastian dan Sensitivitas

Bidang Komputasi melakukan pengembangan analisis ketidakpastian dan sensitivitas probabilistik. Dalam tahap pembangkitan sampel, metoda yang digunakan adalah Latin Hypercube Sampling. Metoda sampling ini lebih unggul dibandingkan dengan metoda random standar, diantaranya dengan menghasilkan estimasi hasi dengan cdf (cumulative density function) yang lebih stabil.

Pengembangan ini berawal dari permasalah analisis tekno-ekonomi yang dihadapi oleh unit lain di BATAN dalam rangka mengantarkan  produk riset ke pasar komersial. Namun dalam perkembangannya analisis ini digunakan untuk mendukung analisis sistem teknologi energi nuklir yang merupakan tugas utam bidang komputasi. Aplikasi metoda ini juga diterapkan dalam analisis laju fluks radon bekerja sama dengan peneliti dari PTKMR dan PLTR Batan.

Categories