Akselerator kecerdasan buatan

Dari Wikipedia bahasa Indonesia, ensiklopedia bebas

Akselerator kecerdasan buatan adalah sebuah kelas mikroprosesor[1] atau sistem komputer[2] dirancang sebagai perangkat keras akselerasi untuk aplikasi kecerdasan buatan, terutama jaringan saraf tiruan, pengelihatan mesin, dan pemelajaran mesin. Aplikasi yang umum termasuk algoritma untuk robotika, internet untuk segala hal dan tugas data-intensif atau berbasis sensor lainnya.[3] Akselerator kecerdasan buatan seringkali merupakan desain inti banyak dan umumnya berfokus pada aritmatika presisi rendah, arsitektur aliran data baru atau kemampuan komputasi dalam memori.[4] Sejumlah persyaratan khusus vendor ada untuk perangkat dalam kategori ini, dan ini merupakan teknologi yang muncul tanpa desain yang dominan . Akselerator kecerdasan buatan dapat ditemukan di banyak perangkat seperti smartphone, tablet, dan komputer di seluruh dunia.

Sejarah[sunting | sunting sumber]

Percobaan awal[sunting | sunting sumber]

Pada awal 1993, prosesor sinyal digital digunakan sebagai akselerator jaringan saraf misalnya untuk mempercepat perangkat lunak pengenalan karakter optik.[5] Pada 1990-an, ada juga upaya untuk membuat sistem throughput paralel tinggi untuk workstation yang ditujukan untuk berbagai aplikasi, termasuk simulasi jaringan saraf.[6][7][8] Akselerator berbasis FPGA juga pertama kali dieksplorasi pada 1990-an untuk inferensi [9] dan pelatihan.[10] ANNA adalah akselerator CMOS jaring saraf yang dikembangkan oleh Yann LeCun.[11]

Komputasi heterogen[sunting | sunting sumber]

Komputasi heterogen mengacu pada menggabungkan sejumlah prosesor khusus dalam satu sistem, atau bahkan satu chip, masing-masing dioptimalkan untuk jenis tugas tertentu. Arsitektur seperti mikroprosesor sel [12] memiliki fitur yang secara signifikan tumpang tindih dengan akselerator kecerdasan buatan termasuk: dukungan untuk aritmatika presisi rendah, arsitektur aliran data, dan memprioritaskan 'throughput' daripada latensi. Mikroprosesor sel kemudian diterapkan pada sejumlah tugas [13][14][15] termasuk kecerdasan buatan.[16][17]

Pada 2000 - an, CPU juga mendapatkan unit SIMD yang semakin lebar, didorong oleh beban kerja video dan game; serta dukungan untuk tipe data presisi rendah yang dikemas.[18]

Penggunaan GPU[sunting | sunting sumber]

Unit pemrosesan grafis atau GPU adalah perangkat keras khusus untuk manipulasi gambar dan perhitungan properti gambar lokal. Dasar matematis dari jaringan saraf dan manipulasi gambar adalah serupa, tugas paralel memalukan yang melibatkan matriks, menyebabkan GPU menjadi semakin digunakan untuk tugas pembelajaran mesin.[19][20][21] Hingga 2016, GPU populer untuk pekerjaan AI, dan mereka terus berkembang ke arah untuk memfasilitasi pembelajaran yang mendalam, baik untuk pelatihan [22] dan kesimpulan dalam perangkat seperti mobil otonom.[23] Pengembang GPU seperti Nvidia NVLink sedang mengembangkan kemampuan penghubung tambahan untuk jenis beban kerja aliran data yang berasal dari AI.[24] Karena GPU semakin banyak diterapkan pada akselerasi AI, produsen GPU telah memasukkan perangkat keras khusus jaringan saraf untuk lebih mempercepat tugas-tugas ini.[25][26] Inti tensor dimaksudkan untuk mempercepat pelatihan jaringan saraf.[26]

Penggunaan FPGA[sunting | sunting sumber]

Kerangka kerja pembelajaran yang dalam masih terus berkembang, sehingga sulit untuk merancang perangkat keras khusus. Perangkat yang dapat dikonfigurasi ulang seperti field-programmable gate arrays (FPGA) membuatnya lebih mudah untuk mengembangkan perangkat keras, kerangka kerja, dan perangkat lunak bersama.[9][27][28]

Microsoft telah menggunakan chip FPGA untuk mempercepat inferensi.[29][30] Penerapan FPGAs untuk akselerasi AI memotivasi Intel untuk mengakuisisi Altera dengan tujuan mengintegrasikan FPGA dalam CPU server, yang akan mampu mempercepat AI serta tugas-tugas tujuan umum.[31]

Aplikasi potensial[sunting | sunting sumber]

Lihat pula[sunting | sunting sumber]

Referensi[sunting | sunting sumber]

  1. ^ "Intel unveils Movidius Compute Stick USB AI Accelerator". 2017-07-21. Diarsipkan dari versi asli tanggal August 11, 2017. Diakses tanggal August 11, 2017. 
  2. ^ "Inspurs unveils GX4 AI Accelerator". 2017-06-21. 
  3. ^ "Google Developing AI Processors". Google using its own AI accelerators.
  4. ^ "A Survey of ReRAM-based Architectures for Processing-in-memory and Neural Networks", S. Mittal, Machine Learning and Knowledge Extraction, 2018
  5. ^ "convolutional neural network demo from 1993 featuring DSP32 accelerator". 
  6. ^ "design of a connectionist network supercomputer". 
  7. ^ "The end of general purpose computers (not)". This presentation covers a past attempt at neural net accelerators, notes the similarity to the modern SLI GPGPU processor setup, and argues that general purpose vector accelerators are the way forward (in relation to RISC-V hwacha project. Argues that NN's are just dense and sparse matrices, one of several recurring algorithms)
  8. ^ Ramacher, U.; Raab, W.; Hachmann, J.A.U.; Beichter, J.; Bruls, N.; Wesseling, M.; Sicheneder, E.; Glass, J.; Wurz, A. (1995). Proceedings of 9th International Parallel Processing Symposium. hlm. 774–781. doi:10.1109/IPPS.1995.395862. ISBN 978-0-8186-7074-9. 
  9. ^ a b "Space Efficient Neural Net Implementation". 
  10. ^ "A Generic Building Block for Hopfield Neural Networks with On-Chip Learning" (PDF). 1996. Diarsipkan dari versi asli (PDF) tanggal 2017-10-17. Diakses tanggal 2019-07-09.  Diarsipkan 2017-10-17 di Wayback Machine.
  11. ^ Application of the ANNA Neural Network Chip to High-Speed Character Recognition
  12. ^ "Synergistic Processing in Cell's Multicore Architecture". 2006. 
  13. ^ De Fabritiis, G. (2007). "Performance of Cell processor for biomolecular simulations". Computer Physics Communications. 176 (11–12): 660–664. arXiv:physics/0611201alt=Dapat diakses gratis. doi:10.1016/j.cpc.2007.02.107. 
  14. ^ "Video Processing and Retrieval on Cell architecture". 
  15. ^ Benthin, Carsten; Wald, Ingo; Scherbaum, Michael; Friedrich, Heiko (2006). 2006 IEEE Symposium on Interactive Ray Tracing. hlm. 15–23. doi:10.1109/RT.2006.280210. ISBN 978-1-4244-0693-7. 
  16. ^ "Development of an artificial neural network on a heterogeneous multicore architecture to predict a successful weight loss in obese individuals" (PDF). Diarsipkan dari versi asli (PDF) tanggal 2017-08-30. Diakses tanggal 2019-07-09. 
  17. ^ Kwon, Bomjun; Choi, Taiho; Chung, Heejin; Kim, Geonho (2008). 2008 5th IEEE Consumer Communications and Networking Conference. hlm. 1030–1034. doi:10.1109/ccnc08.2007.235. ISBN 978-1-4244-1457-4. 
  18. ^ "Improving the performance of video with AVX". 2012-02-08. 
  19. ^ "microsoft research/pixel shaders/MNIST". 
  20. ^ "how the gpu came to be used for general computation". 
  21. ^ "imagenet classification with deep convolutional neural networks" (PDF). 
  22. ^ "nvidia driving the development of deep learning". 2016-05-17. 
  23. ^ "nvidia introduces supercomputer for self driving cars". 2016-01-06. 
  24. ^ "how nvlink will enable faster easier multi GPU computing". 2014-11-14. 
  25. ^ "A Survey on Optimized Implementation of Deep Learning Models on the NVIDIA Jetson Platform", 2019
  26. ^ a b Harris, Mark (May 11, 2017). "CUDA 9 Features Revealed: Volta, Cooperative Groups and More". Diakses tanggal August 12, 2017. 
  27. ^ "A Generic Building Block for Hopfield Neural Networks with On-Chip Learning" (PDF). 1996. Diarsipkan dari versi asli (PDF) tanggal 2017-10-17. Diakses tanggal 2019-07-09.  Diarsipkan 2017-10-17 di Wayback Machine.
  28. ^ "FPGA Based Deep Learning Accelerators Take on ASICs". The Next Platform. 2016-08-23. Diakses tanggal 2016-09-07. 
  29. ^ "microsoft extends fpga reach from bing to deep learning". 2015-08-27. 
  30. ^ Chung, Eric; Strauss, Karin; Fowers, Jeremy; Kim, Joo-Young; Ruwase, Olatunji; Ovtcharov, Kalin (2015-02-23). "Accelerating Deep Convolutional Neural Networks Using Specialized Hardware" (PDF). Microsoft Research. 
  31. ^ "A Survey of FPGA-based Accelerators for Convolutional Neural Networks", Mittal et al., NCAA, 2018
  32. ^ "drive px". 
  33. ^ "design of a machine vision system for weed control" (PDF). Diarsipkan dari versi asli (PDF) tanggal June 23, 2010. Diakses tanggal June 17, 2016. 
  34. ^ "qualcomm research brings server class machine learning to every data devices". October 2015. 
  35. ^ "movidius powers worlds most intelligent drone". 2016-03-16.