February 2022

Bahasa – Bahasa Baru Untuk Komputasi Kuantum

Bahasa - Bahasa Baru Untuk Komputasi Kuantum

Bahasa – Bahasa Baru Untuk Komputasi Kuantum – Twist adalah bahasa pemrograman yang dikembangkan MIT yang dapat menjelaskan dan memverifikasi bagian data mana yang terjerat untuk mencegah bug dalam program kuantum.

Bahasa - Bahasa Baru Untuk Komputasi Kuantum

Kristal waktu. Gelombang mikro. berlian. Apa kesamaan dari ketiga hal yang berbeda ini?

komputasi kuantum. Tidak seperti komputer tradisional yang menggunakan bit, komputer kuantum menggunakan qubit untuk mengkodekan informasi sebagai nol atau satu, atau keduanya secara bersamaan. https://www.premium303.pro/

Digabungkan dengan campuran kekuatan dari fisika kuantum, mesin seukuran lemari es ini dapat memproses banyak informasi tetapi jauh dari sempurna. Sama seperti komputer biasa, kita perlu memiliki bahasa pemrograman yang tepat untuk menghitung dengan benar di komputer kuantum.

Pemrograman komputer kuantum membutuhkan kesadaran akan sesuatu yang disebut “keterjeratan,” pengganda komputasi untuk jenis qubit, yang diterjemahkan menjadi banyak daya. Ketika dua qubit terjerat, tindakan pada satu qubit dapat mengubah nilai yang lain, bahkan ketika mereka terpisah secara fisik, sehingga memunculkan karakterisasi Einstein tentang “aksi seram di kejauhan.”

Tapi potensi itu sama-sama merupakan sumber kelemahan. Saat memprogram, membuang satu qubit tanpa memperhatikan keterjeratannya dengan qubit lain dapat menghancurkan data yang disimpan di qubit lain, membahayakan kebenaran program.

Ilmuwan dari Ilmu Komputer dan Kecerdasan Buatan (CSAIL) MIT bertujuan untuk mengungkap dengan menciptakan bahasa pemrograman mereka sendiri untuk komputasi kuantum yang disebut Twist. Twist dapat menjelaskan dan memverifikasi potongan data mana yang terjerat dalam program kuantum, melalui bahasa yang dapat dipahami oleh programmer klasik.

Bahasa menggunakan konsep yang disebut kemurnian, yang memaksakan tidak adanya keterjeratan dan menghasilkan program yang lebih intuitif, dengan bug idealnya lebih sedikit. Misalnya, seorang programmer dapat menggunakan Twist untuk mengatakan bahwa data sementara yang dihasilkan sebagai sampah oleh suatu program tidak terkait dengan jawaban program, sehingga aman untuk dibuang.

Sementara bidang yang baru lahir dapat terasa sedikit mencolok dan futuristik, dengan gambar mesin emas raksasa yang muncul di benak, komputer kuantum memiliki potensi terobosan komputasi dalam tugas-tugas klasik yang tidak dapat diselesaikan, seperti protokol kriptografi dan komunikasi, pencarian, dan fisika komputasi dan kimia.

Salah satu tantangan utama dalam ilmu komputasi adalah berurusan dengan kompleksitas masalah dan jumlah komputasi yang dibutuhkan. Sementara komputer digital klasik akan membutuhkan jumlah bit eksponensial yang sangat besar untuk dapat memproses simulasi semacam itu, komputer kuantum dapat melakukannya, secara potensial, menggunakan jumlah qubit yang sangat kecil jika ada program yang tepat.

“Bahasa kami Twist memungkinkan pengembang untuk menulis program kuantum yang lebih aman dengan secara eksplisit menyatakan kapan qubit tidak boleh terjerat dengan yang lain,” kata Charles Yuan, seorang mahasiswa PhD MIT di bidang teknik elektro dan ilmu komputer dan penulis utama pada makalah baru tentang Twist.

“Karena memahami program kuantum membutuhkan pemahaman keterjeratan, kami berharap Twist membuka jalan menuju bahasa yang membuat tantangan unik komputasi kuantum lebih mudah diakses oleh pemrogram.”

Yuan menulis makalah tersebut bersama Chris McNally, seorang mahasiswa PhD di bidang teknik elektro dan ilmu komputer yang berafiliasi dengan MIT Research Laboratory of Electronics, serta Asisten Profesor MIT Michael Carbin. Mereka mempresentasikan penelitian tersebut pada konferensi Simposium Prinsip Pemrograman 2022 minggu lalu di Philadelphia.

Mengurai keterikatan kuantum

Bayangkan sebuah kotak kayu yang memiliki seribu kabel yang menonjol keluar dari satu sisi. Anda dapat menarik semua kabel keluar dari kotak, atau mendorongnya sepenuhnya.

Setelah Anda melakukan ini beberapa saat, kabel membentuk pola bit nol dan satu tergantung pada apakah mereka masuk atau keluar. Kotak ini mewakili memori komputer klasik. Program untuk komputer ini adalah urutan instruksi kapan dan bagaimana cara menarik kabel.

Sekarang bayangkan kotak kedua yang tampak identik. Kali ini, Anda menarik kabel, dan melihat bahwa saat kabel itu muncul, beberapa kabel lain ditarik kembali ke dalam. Jelas, di dalam kotak, kabel ini entah bagaimana terjerat satu sama lain.

Kotak kedua adalah analogi untuk komputer kuantum, dan memahami arti program kuantum membutuhkan pemahaman tentang keterjeratan yang ada dalam datanya. Tetapi mendeteksi keterjeratan tidaklah mudah.

Anda tidak dapat melihat ke dalam kotak kayu, jadi yang terbaik yang dapat Anda lakukan adalah mencoba menarik kabel dan mempertimbangkan dengan cermat kabel mana yang terjerat. Dengan cara yang sama, pemrogram kuantum saat ini harus menalar tentang keterjeratan dengan tangan. Di sinilah desain Twist membantu memijat beberapa bagian yang saling bertautan.

Para ilmuwan merancang Twist agar cukup ekspresif untuk menulis program untuk algoritme kuantum terkenal dan mengidentifikasi bug dalam implementasinya. Untuk mengevaluasi desain Twist, mereka memodifikasi program untuk memperkenalkan beberapa jenis bug yang akan relatif halus untuk dideteksi oleh programmer manusia, dan menunjukkan bahwa Twist dapat secara otomatis mengidentifikasi bug dan menolak program.

Mereka juga mengukur seberapa baik kinerja program dalam praktik dalam hal runtime, yang memiliki overhead kurang dari 4 persen dibandingkan teknik pemrograman kuantum yang ada.

Bagi mereka yang waspada terhadap reputasi “kumuh” kuantum dalam potensinya untuk merusak sistem enkripsi, Yuan mengatakan masih belum diketahui sejauh mana komputer kuantum benar-benar dapat mencapai janji kinerja mereka dalam praktik.

“Ada banyak penelitian yang terjadi dalam kriptografi pasca-kuantum, yang ada karena bahkan komputasi kuantum tidak sepenuhnya kuat. Sejauh ini, ada serangkaian aplikasi yang sangat spesifik di mana orang telah mengembangkan algoritme dan teknik di mana komputer kuantum dapat mengungguli komputer klasik.”

Langkah penting berikutnya adalah menggunakan Twist untuk membuat bahasa pemrograman kuantum tingkat tinggi. Sebagian besar bahasa pemrograman kuantum saat ini masih menyerupai bahasa rakitan, menyatukan operasi tingkat rendah, tanpa perhatian terhadap hal-hal seperti tipe dan fungsi data, dan apa yang khas dalam rekayasa perangkat lunak klasik.

“Komputer kuantum rawan kesalahan dan sulit diprogram. Dengan memperkenalkan dan menalar tentang ‘kemurnian’ kode program, Twist mengambil langkah besar untuk membuat pemrograman kuantum lebih mudah dengan menjamin bahwa bit kuantum dalam potongan kode murni tidak dapat diubah oleh bit yang tidak ada dalam kode itu,”

kata Fred Chong, Profesor Ilmu Komputer Seymour Goodman di Universitas Chicago dan kepala ilmuwan di Super.tech.

Bahasa - Bahasa Baru Untuk Komputasi Kuantum

Pekerjaan itu didukung, sebagian, oleh MIT-IBM Watson AI Lab, National Science Foundation, dan Office of Naval Research.

Pakar MIT Menguji Penelitian Mata Uang Digital Hipotetis

Pakar MIT Menguji Penelitian Mata Uang Digital Hipotetis

Pakar MIT Menguji Penelitian Mata Uang Digital Hipotetis – Kolaborasi dengan Federal Reserve Bank of Boston menghasilkan kemajuan dalam memahami bagaimana mata uang digital dapat dikembangkan di masa depan.

Pakar MIT Menguji Penelitian Mata Uang Digital Hipotetis

Bekerja sama dengan tim di Federal Reserve Bank of Boston, para ahli MIT telah mulai merancang dan menguji penelitian teknis di mana pemeriksaan lebih lanjut dari Mata Uang Digital Bank Sentral (CBDC) dapat dilakukan di AS. hari88

Upaya tersebut, yang dikenal sebagai Project Hamilton, sedang dalam tahap eksplorasi, dan penelitian ini tidak dimaksudkan sebagai percontohan atau untuk penyebaran publik. Sebaliknya, para peneliti telah mengeksplorasi dua pendekatan berbeda yang dapat digunakan untuk memproses transaksi,

dan dengan demikian dapat menunjukkan kelayakan teknis dari model CBDC potensial. Dalam proses yang melibatkan fleksibilitas desain yang signifikan, grup MIT menguji faktor-faktor seperti volume dan kecepatan transaksi, dan ketahanan sistem secara umum, di antara persyaratan lain untuk mata uang digital yang layak.

“Inti dari apa yang kami bangun adalah prosesor transaksi berkecepatan tinggi untuk mata uang digital terpusat, untuk menunjukkan throughput, latensi, dan ketahanan sistem yang dapat mendukung ekonomi pembayaran pada skala Amerika Serikat,” kata Neha Narula, direktur Inisiatif Mata Uang Digital MIT dan ilmuwan penelitian di MIT Media Lab, yang memimpin upaya tersebut dengan Boston Fed.

“Penting untuk dicatat bahwa proyek ini bukan komentar tentang apakah AS harus mengeluarkan CBDC atau tidak tetapi pekerjaan seperti ini sangat penting untuk membantu menentukan jawaban atas pertanyaan itu.

Proyek ini berfungsi sebagai platform untuk membuat dan membandingkan desain yang lebih layak, dan menyediakan tempat untuk bereksperimen dan berkolaborasi pada fungsionalitas mata uang digital yang lebih canggih.”

Para peneliti mengembangkan dua set lengkap kode sumber komputasi, atau “basis kode,” untuk sistem perangkat lunak. Satu basis kode mampu menangani 1,7 juta transaksi per detik, dengan 99 persen transaksi tersebut diselesaikan dalam waktu kurang dari satu detik jauh di atas tolok ukur dasar 100.000 transaksi per detik yang ingin mereka capai.

Basis kode lainnya mampu memproses sekitar 170.000 transaksi per detik. Tingkat throughput itu akan membantu menyelesaikan setiap transaksi di bank sentral, sekaligus memungkinkan pertumbuhan transaksi mesin-ke-mesin lainnya keduanya akan sangat penting bagi CBDC potensial.

Temuan tersebut telah dirilis dalam sebuah makalah berjudul, “Sistem Pemrosesan Pembayaran Kinerja Tinggi yang Dirancang untuk Mata Uang Digital Bank Sentral,” yang dirilis oleh MIT dan Federal Reserve Bank of Boston.

Perangkat lunak Project Hamilton, yang disebut OpenCBDC, telah dirilis di bawah lisensi sumber terbuka MIT juga. Ini adalah salah satu bagian dari pekerjaan yang sedang dilakukan pada masalah CBDC dalam sistem Federal Reserve.

Yang pasti, setiap langkah menuju versi mata uang digital akan melibatkan banyak keputusan kebijakan tambahan dan fitur perangkat lunak yang perlu diselesaikan oleh Kongres AS dan pakar regulasi lainnya. Seperti yang ditunjukkan tim dalam ringkasan eksekutif makalah, “beberapa pertanyaan desain teknis tetap terbuka untuk diselidiki.

Jawaban atas pertanyaan-pertanyaan ini akan memiliki implikasi dan konsekuensi yang berarti untuk opsi apa yang tersedia, atau tidak, tersedia bagi pembuat kebijakan.”

Memang, Narula menekankan, “Pembicaraan kebijakan seputar mata uang digital bank sentral masih dalam tahap awal.” Dan sehubungan dengan itu, ia menambahkan, “Masih banyak pertanyaan penelitian yang harus dijawab yang belum kami dapatkan, seperti peran perantara, bagaimana mempromosikan akses dengan aman, dan bagaimana merancang untuk mereka yang mungkin tidak memilikinya. smartphone atau akses internet yang konsisten.”

Namun, banyak negara menunjukkan minat pada konsep CBDC: Bank Sentral Bahama, Bank Sentral Karibia Timur, dan Bank Sentral Nigeria telah menerbitkan CBDC, dan China menjalankan proyek percontohan CBDC tahap akhir. Penelitian baru ini merupakan langkah menuju model CBDC hipotetis yang kuat, pada skala yang dapat digunakan oleh ekonomi seukuran AS

Kolaborasi penelitian Project Hamilton antara MIT dan Boston Fed dimulai pada Agustus 2020, sebagai inisiatif untuk menguji model CBDC hipotetis. Pekerjaan yang dilakukan sejauh ini merupakan fase pertama dari proyek, evaluasi dasar-dasar pemrosesan transaksi.

“Kami percaya bahwa bahkan sebelum diskusi kebijakan dimulai dengan sungguh-sungguh, penting untuk menyelami pertanyaan teknologi secara mendalam, dan penelitian ini dirancang dengan pemikiran tersebut,” kata Jim Cunha, wakil presiden eksekutif Federal Reserve Bank of Boston.

“Sementara keputusan kebijakan memengaruhi desain sistem, kami juga percaya penelitian inovatif dapat memberi tahu pembuat kebijakan tentang apa yang mungkin.”

Pilihan yang layak

Di masing-masing dari dua desain mata uang digital yang diuji oleh tim MIT dan Boston Fed, pengguna berinteraksi dengan prosesor transaksi yang dikelola secara terpusat, menggunakan dompet digital dengan tanda tangan kriptografi individu yang mengizinkan pergerakan dana.

Satu buku besar, yang menyimpan catatan lengkap transaksi sesuai urutan pemrosesannya, ternyata lebih lambat dari kedua sistem tersebut. “Kami menemukan bahwa itu memiliki kemacetan yang cukup signifikan,” kata Narula.

Para peneliti juga mencatat bahwa sistem yang lebih cepat, yang memproses 1,7 juta transaksi per detik, kuantitas transaksi “tampaknya meningkat secara linier dengan penambahan lebih banyak server,” yang akan mempertahankan volume aktivitas yang lebih besar.

Tim menyadari bahwa privasi konsumen kemungkinan akan menjadi pertimbangan penting dalam desain mata uang digital AS yang berfungsi, dan mereka merancang sistem yang relatif efisien dengan mempertimbangkan masalah tersebut.

“Kami menciptakan arsitektur di mana bank sentral tidak perlu melihat atau menyimpan [banyak] informasi pengguna,” kata Narula, sambil mencatat bahwa pada akhirnya praktik privasi CBDC akan diinformasikan oleh pilihan kebijakan.

Pertanyaan tentang ketahanan sistem juga penting untuk CBDC mana pun. Dalam hal ini, pemodelan oleh peneliti Proyek Hamilton menunjukkan bahwa jika dua wilayah besar AS kehilangan konektivitas, sistem mata uang digital dapat terus beroperasi di tempat lain dan tidak akan mengalami kehilangan data atau gangguan sistem.

Pejabat di Boston Fed mengatakan pekerjaan tersebut merupakan langkah penting dalam mengevaluasi potensi CBDC.

“Meneliti CBDC AS hipotetis berarti Anda perlu memikirkan taruhan setinggi mungkin,” kata Robert Bench, asisten wakil presiden di grup Pembayaran Aman dari Fed Boston. “Tekanan teknis pada dolar digital masa depan teoritis akan sangat besar.

Pakar MIT Menguji Penelitian Mata Uang Digital Hipotetis

Kami bangga dengan pekerjaan tim kami dan MIT untuk membangun mesin pemrosesan yang menyediakan fungsionalitas dan fleksibilitas untuk memahami bagaimana uang dapat bekerja selama beberapa dekade mendatang.”

Bahasa Pemrograman Baru Untuk Komputer Berperforma Tinggi

Bahasa Pemrograman Baru Untuk Komputer Berperforma Tinggi

Bahasa Pemrograman Baru Untuk Komputer Berperforma Tinggi – Dengan prototipe bahasa tensor, “kecepatan dan ketepatan tidak harus bersaing … mereka bisa berjalan bersama-sama, bergandengan tangan.”

Bahasa Pemrograman Baru Untuk Komputer Berperforma Tinggi

Komputasi berperforma tinggi diperlukan untuk jumlah tugas yang terus bertambah seperti pemrosesan gambar atau berbagai aplikasi pembelajaran mendalam di jaringan saraf di mana seseorang harus membajak tumpukan data yang sangat besar, dan melakukannya dengan cukup cepat, jika tidak, hal itu akan memakan waktu yang lama. https://3.79.236.213/

Jumlah waktu. Secara luas diyakini bahwa, dalam menjalankan operasi semacam ini, ada pertukaran yang tak terhindarkan antara kecepatan dan keandalan. Jika kecepatan adalah prioritas utama, menurut pandangan ini, maka keandalan kemungkinan akan menurun, dan sebaliknya.

Namun, tim peneliti, yang sebagian besar berbasis di MIT, mempertanyakan gagasan itu, mengklaim bahwa seseorang dapat, pada kenyataannya, memiliki semuanya. Dengan bahasa pemrograman baru, yang telah mereka tulis khusus untuk komputasi kinerja tinggi,

kata Amanda Liu, mahasiswa PhD tahun kedua di MIT Computer Science and Artificial Intelligence Laboratory (CSAIL), “kecepatan dan ketepatan tidak harus bersaing. Sebaliknya, mereka dapat berjalan bersama-sama, bergandengan tangan, dalam program yang kami tulis.”

Liu — bersama dengan postdoc University of California di Berkeley Gilbert Louis Bernstein, Associate Professor MIT Adam Chlipala, dan Asisten Profesor MIT Jonathan Ragan-Kelley menggambarkan potensi kreasi mereka yang baru dikembangkan, “A Tensor Language” (ATL), bulan lalu di konferensi Prinsip Bahasa Pemrograman di Philadelphia.

“Semuanya dalam bahasa kami,” kata Liu, “bertujuan untuk menghasilkan angka tunggal atau tensor.” Tensor, pada gilirannya, adalah generalisasi dari vektor dan matriks. Sedangkan vektor adalah objek satu dimensi (sering diwakili oleh panah individu) dan matriks adalah array angka dua dimensi yang familiar, tensor adalah array n dimensi, yang dapat berbentuk array 3x3x3, misalnya, atau sesuatu yang lebih tinggi. (atau lebih rendah) dimensi.

Inti dari algoritma atau program komputer adalah untuk memulai perhitungan tertentu. Tetapi ada banyak cara berbeda untuk menulis program itu “variasi membingungkan dari realisasi kode yang berbeda,” seperti yang ditulis Liu dan rekan penulisnya dalam makalah konferensi mereka yang akan segera diterbitkan beberapa jauh lebih cepat daripada yang lain.

Alasan utama di balik ATL adalah ini, dia menjelaskan: “Mengingat komputasi berkinerja tinggi sangat intensif sumber daya, Anda ingin dapat memodifikasi, atau menulis ulang, program ke dalam bentuk yang optimal untuk mempercepat segalanya.

Seseorang sering memulai dengan program yang paling mudah untuk ditulis, tetapi itu mungkin bukan cara tercepat untuk menjalankannya, sehingga penyesuaian lebih lanjut masih diperlukan.”

Sebagai contoh, anggaplah sebuah gambar diwakili oleh larik angka 100×100, masing-masing sesuai dengan piksel, dan Anda ingin mendapatkan nilai rata-rata untuk angka-angka ini. Itu bisa dilakukan dalam perhitungan dua tahap dengan terlebih dahulu menentukan rata-rata setiap baris dan kemudian mendapatkan rata-rata setiap kolom. ATL memiliki toolkit terkait yang oleh ilmuwan komputer disebut “kerangka kerja” yang mungkin menunjukkan bagaimana proses dua langkah ini dapat diubah menjadi proses satu langkah yang lebih cepat.

“Kami dapat menjamin bahwa pengoptimalan ini benar dengan menggunakan sesuatu yang disebut asisten bukti,” kata Liu. Untuk tujuan ini, bahasa baru tim dibangun di atas bahasa yang sudah ada, Coq, yang berisi asisten bukti. Asisten bukti, pada gilirannya, memiliki kapasitas yang melekat untuk membuktikan pernyataannya secara matematis yang ketat.

Coq memiliki fitur intrinsik lain yang membuatnya menarik bagi grup berbasis MIT: program yang ditulis di dalamnya, atau adaptasinya, selalu berakhir dan tidak dapat berjalan selamanya pada loop tanpa akhir (seperti yang dapat terjadi dengan program yang ditulis di Java, misalnya).

“Kami menjalankan program untuk mendapatkan satu jawaban angka atau tensor,” kata Liu. “Program yang tidak pernah berakhir tidak akan berguna bagi kami, tetapi penghentian adalah sesuatu yang kami dapatkan secara gratis dengan memanfaatkan Coq.”

Proyek ATL menggabungkan dua kepentingan penelitian utama Ragan-Kelley dan Chlipala. Ragan-Kelley telah lama memperhatikan optimasi algoritma dalam konteks komputasi kinerja tinggi. Chlipala, sementara itu, lebih fokus pada verifikasi optimasi algoritmik formal (seperti dalam berbasis matematis). Ini merupakan kolaborasi pertama mereka. Bernstein dan Liu dibawa ke perusahaan tahun lalu, dan ATL adalah hasilnya.

Sekarang berdiri sebagai yang pertama, dan sejauh ini satu-satunya, bahasa tensor dengan pengoptimalan yang diverifikasi secara formal. Liu memperingatkan, bagaimanapun, bahwa ATL masih hanya sebuah prototipe meskipun menjanjikan yang telah diuji pada sejumlah program kecil.

“Salah satu tujuan utama kami, melihat ke depan, adalah untuk meningkatkan skalabilitas ATL, sehingga dapat digunakan untuk program yang lebih besar yang kami lihat di dunia nyata,” katanya.

Bahasa Pemrograman Baru Untuk Komputer Berperforma Tinggi

Di masa lalu, pengoptimalan program-program ini biasanya dilakukan dengan tangan, secara lebih ad hoc, yang sering kali melibatkan coba-coba, dan terkadang banyak kesalahan. Dengan ATL, Liu menambahkan, “orang akan dapat mengikuti pendekatan yang jauh lebih berprinsip untuk menulis ulang program-program ini dan melakukannya dengan lebih mudah dan jaminan kebenaran yang lebih besar.”