Apakah Rangkaian Neural? Pengenalan Rangkaian Neural Buatan



Blog ini mengenai apa itu Neural Networks akan memperkenalkan anda kepada konsep asas Neural Networks dan bagaimana mereka dapat menyelesaikan masalah berdasarkan data yang kompleks.

Dengan kemajuan dalam Pembelajaran Mesin, telah menempuh jalan tinggi. Pembelajaran mendalam dianggap sebagai teknologi paling maju yang dibina untuk menyelesaikan masalah kompleks yang menggunakan set data secara besar-besaran. Blog ini mengenai apa itu Neural Networks akan memperkenalkan anda kepada konsep asas Neural Networks dan bagaimana mereka dapat menyelesaikan masalah berdasarkan data yang kompleks.

Untuk mendapatkan pengetahuan mendalam mengenai Artificial Intelligence dan Deep Learning, anda boleh mendaftar secara langsung oleh Edureka dengan sokongan 24/7 dan akses seumur hidup.





Berikut adalah senarai topik yang akan dibahas dalam ini Blog:

  1. Apa itu Rangkaian Neural?
  2. Apa itu Pembelajaran Dalam?
  3. Perbezaan Antara AI, ML dan, DL
  4. Keperluan Untuk Pembelajaran Dalam
  5. Kes Penggunaan Pembelajaran Dalam
  6. Bagaimana Rangkaian Neural berfungsi?
  7. Rangkaian Neural Dijelaskan Dengan Contoh

Definisi Ringkas Rangkaian Neural

Dimodelkan sesuai dengan otak manusia, a Neural Network dibina untuk meniru fungsi otak manusia . Otak manusia adalah rangkaian saraf yang terdiri daripada beberapa neuron, demikian juga, Rangkaian Neural Buatan (ANN) yang terdiri daripada beberapa persepsi (dijelaskan kemudian).



Rangkaian Neural - Apa Itu Rangkaian Neural - Edureka

Rangkaian saraf terdiri daripada tiga lapisan penting:

  • Lapisan Input: Seperti namanya, lapisan ini menerima semua input yang diberikan oleh pengaturcara.
  • Lapisan Tersembunyi: Di antara lapisan input dan output adalah sekumpulan lapisan yang dikenali sebagai lapisan Tersembunyi. Dalam lapisan ini, pengiraan dilakukan yang menghasilkan output.
  • Lapisan Keluaran: Input melalui rangkaian transformasi melalui lapisan tersembunyi yang akhirnya menghasilkan output yang dihantar melalui ini lapisan.

Sebelum kita mengetahui bagaimana fungsi Rangkaian Neural, mari kita fahami apa itu Pembelajaran Dalam.



Apa itu Pembelajaran Dalam?

Deep Learning adalah bidang Advanced Machine Learning yang menggunakan konsep Neural Networks untuk menyelesaikan kes penggunaan komputasi tinggi yang melibatkan analisis data pelbagai dimensi. Ini mengotomatisasi proses pengekstrakan fitur, memastikan bahawa intervensi manusia sangat minimum diperlukan.

Jadi apa sebenarnya Pembelajaran Dalam?

Pembelajaran Dalam adalah lanjutan sub-bidang Pembelajaran Mesin yang menggunakan algoritma yang diilhamkan oleh struktur dan fungsi otak yang disebut Artificial Neural Networks.

Perbezaan Antara AI, ML, dan DL (Artificial Intelligence vs Machine Learning vs Deep Learning)

Orang sering cenderung berfikir bahawa , , dan Pembelajaran Dalam sama kerana mereka mempunyai aplikasi biasa. Sebagai contoh, Siri adalah aplikasi AI, pembelajaran mesin dan pembelajaran mendalam.

Jadi bagaimana teknologi ini berkaitan?

  • Kecerdasan Buatan adalah ilmu mendapatkan mesin untuk meniru tingkah laku manusia.
  • Pembelajaran mesin adalah subkumpulan Kecerdasan Buatan (AI) yang memfokuskan pada mendapatkan mesin membuat keputusan dengan memberi mereka data.
  • Pembelajaran mendalam adalah subset Pembelajaran Mesin yang menggunakan konsep rangkaian saraf untuk menyelesaikan masalah yang kompleks.

Ringkasnya, Pembelajaran Mesin dan Pembelajaran Dalam adalah bidang yang saling berkaitan. Pembelajaran Mesin dan alat pembelajaran mendalam Kecerdasan Buatan dengan menyediakan satu set algoritma dan rangkaian saraf untuk diselesaikan masalah berdasarkan data.

Sekarang setelah anda memahami asas-asasnya, mari kita fahami apa yang menyebabkan perlunya Pembelajaran Dalam.

Keperluan untuk Pembelajaran Dalam: Batasan Algoritma dan Teknik Pembelajaran Mesin Tradisional

Pembelajaran Mesin adalah kejayaan besar dalam dunia teknikal, ini membawa kepada automasi tugas-tugas monoton dan memakan waktu, ia membantu menyelesaikan masalah yang kompleks dan membuat keputusan yang lebih bijak. Namun, terdapat beberapa kekurangan dalam pembelajaran Mesin yang menyebabkan munculnya Pembelajaran Dalam.

Berikut adalah beberapa batasan Pembelajaran Mesin:

  1. Tidak dapat memproses data dimensi tinggi: Pembelajaran Mesin hanya dapat memproses dimensi kecil data yang mengandungi sekumpulan pemboleh ubah kecil. Sekiranya anda ingin menganalisis data yang mengandungi 100-an pemboleh ubah, maka Pembelajaran Mesin tidak dapat digunakan.
  2. Kejuruteraan ciri adalah manual: Pertimbangkan kes penggunaan di mana anda mempunyai 100 pemboleh ubah peramal dan anda hanya perlu mengecilkan yang penting. Untuk melakukan ini, anda mesti mengkaji secara manual hubungan antara setiap pemboleh ubah dan mengetahui mana yang penting dalam meramalkan hasilnya. Tugas ini sangat membosankan dan memakan masa untuk pembangun.
  3. Tidak sesuai untuk melakukan pengesanan objek dan pemprosesan gambar: Oleh kerana pengesanan objek memerlukan data dimensi tinggi, Pembelajaran Mesin tidak dapat digunakan untuk memproses set data gambar, hanya ideal untuk set data dengan sejumlah fitur yang terbatas.

Sebelum kita sampai ke kedalaman Neural Networks, mari kita pertimbangkan kes penggunaan dunia nyata di mana Deep Learning dilaksanakan.

Kes / Aplikasi Penggunaan Pembelajaran Dalam

Adakah anda tahu bahawa PayPal memproses pembayaran lebih dari $ 235 bilion dari empat bilion transaksi oleh lebih daripada 170 juta pelanggannya? Ia menggunakan sejumlah besar data untuk mengenal pasti kemungkinan aktiviti penipuan antara sebab lain.

Dengan bantuan algoritma Pembelajaran Dalam, PayPal menambang data dari sejarah pembelian pelanggan mereka di samping mengkaji corak kemungkinan penipuan yang tersimpan di pangkalan data untuk memprediksi sama ada transaksi tertentu itu penipuan atau tidak.

Syarikat ini telah menggunakan teknologi Deep Learning & Machine Learning selama lebih kurang 10 tahun. Pada mulanya, pasukan pemantau penipuan menggunakan model linear sederhana. Tetapi selama bertahun-tahun syarikat beralih ke teknologi Pembelajaran Mesin yang lebih maju yang disebut, Pembelajaran Dalam.

Pengurus risiko penipuan dan Saintis Data di PayPal, Ke Wang, memetik:

'Apa yang kami nikmati dari pembelajaran mesin yang lebih moden dan maju adalah kemampuannya untuk menggunakan lebih banyak data, menangani lapisan dan lapisan abstraksi dan dapat 'melihat' perkara yang tidak dapat dilihat oleh teknologi yang lebih sederhana, bahkan manusia mungkin tidak dapat melihat. '

parse double to int java

Model linier sederhana mampu memakan sekitar 20 pemboleh ubah. Namun, dengan teknologi Deep Learning seseorang dapat menjalankan ribuan titik data. Oleh itu, dengan melaksanakan Teknologi Pembelajaran Dalam, PayPal akhirnya dapat menganalisis berjuta-juta transaksi untuk mengenal pasti sebarang penipuan aktiviti.

Sekarang mari kita masuk ke dalam Jaringan Neural dan memahami bagaimana ia berfungsi.

Bagaimana Rangkaian Neural Berfungsi?

Untuk memahami rangkaian neural, kita perlu memecahnya dan memahami unit paling asas dari Rangkaian Neural, iaitu Perceptron.

Apa itu Perceptron?

Perceptron adalah rangkaian neural lapisan tunggal yang digunakan untuk mengklasifikasikan data linier. Ia mempunyai 4 komponen penting:

  1. Input
  2. Berat dan berat sebelah
  3. Fungsi Penjumlahan
  4. Fungsi Pengaktifan atau Transformasi

Logik asas di sebalik Perceptron adalah seperti berikut:

Input (x) yang diterima dari lapisan input dikalikan dengan bobot yang ditentukan. Nilai darab kemudian ditambahkan untuk membentuk Jumlah Timbang. Jumlah wajaran input dan bobot masing-masing kemudian digunakan untuk Fungsi Pengaktifan yang berkaitan. Fungsi pengaktifan memetakan input ke output masing-masing.

Berat dan Bias Dalam Pembelajaran Dalam

Mengapa kita harus memberikan bobot untuk setiap input?

Setelah pemboleh ubah input dimasukkan ke rangkaian, nilai yang dipilih secara rawak ditetapkan sebagai bobot input tersebut. Berat setiap titik data input menunjukkan betapa pentingnya input tersebut dalam meramalkan hasilnya.

Parameter bias, sebaliknya, membolehkan anda menyesuaikan kurva fungsi pengaktifan sedemikian rupa sehingga output tepat dicapai.

Fungsi Penjumlahan

Setelah input diberi berat, produk input dan berat masing-masing akan diambil. Menambah semua produk ini memberi kita Jumlah Tertimbang. Ini dilakukan oleh fungsi penjumlahan.

Fungsi Pengaktifan

Tujuan utama fungsi pengaktifan adalah untuk memetakan jumlah berwajaran ke output. Fungsi pengaktifan seperti tanh, ReLU, sigmoid dan sebagainya adalah contoh fungsi transformasi.

cara memasang idea gerhana

Untuk mengetahui lebih lanjut mengenai fungsi Perceptrons, anda boleh melalui ini Blog.

Sebelum kita selesaikan blog ini, mari kita ambil contoh mudah untuk memahami bagaimana Rangkaian Neural beroperasi.

Rangkaian Neural Dijelaskan Dengan Contoh

Pertimbangkan senario di mana anda akan membina Rangkaian Neural Buatan (ANN) yang mengklasifikasikan gambar menjadi dua kelas:

  • Kelas A: Mengandungi gambar daun yang tidak berpenyakit
  • Kelas B: Mengandungi gambar daun yang berpenyakit

Oleh itu, bagaimana anda membuat rangkaian Neural yang mengklasifikasikan daun menjadi tanaman berpenyakit dan tidak berpenyakit?

Prosesnya selalu dimulakan dengan memproses dan mengubah input sedemikian rupa sehingga dapat diproses dengan mudah. Dalam kes kami, setiap gambar daun akan dipecah menjadi piksel bergantung pada dimensi gambar.

Sebagai contoh, jika gambar terdiri dari 30 x 30 piksel, maka jumlah piksel akan menjadi 900. Piksel ini ditunjukkan sebagai matriks, yang kemudian dimasukkan ke dalam lapisan input Jaringan Neural.

Sama seperti bagaimana otak kita mempunyai neuron yang membantu membangun dan menghubungkan pemikiran, ANN mempunyai persepsi yang menerima input dan memprosesnya dengan meneruskannya dari lapisan input ke lapisan output yang tersembunyi dan akhirnya.

Semasa input diteruskan dari lapisan input ke lapisan tersembunyi, berat rawak awal diberikan untuk setiap input. Input kemudian dikalikan dengan bobot yang sesuai dan jumlahnya dihantar sebagai input ke lapisan tersembunyi seterusnya.

Di sini, nilai berangka yang disebut bias diberikan kepada setiap perceptron, yang dikaitkan dengan pemberat setiap input. Selanjutnya, setiap perceptron dilewati melalui pengaktifan atau fungsi transformasi yang menentukan sama ada perceptron tertentu diaktifkan atau tidak.

Perceptron yang diaktifkan digunakan untuk mengirimkan data ke lapisan berikutnya. Dengan cara ini, data disebarkan (Penyebaran ke depan) melalui jaringan saraf sehingga perceptron mencapai lapisan output.

Pada lapisan output, kebarangkalian diturunkan yang memutuskan sama ada data tersebut termasuk dalam kelas A atau kelas B.

Kedengarannya mudah, bukan? Baiklah, konsep di sebalik Neural Networks hanya berdasarkan fungsi otak manusia. Anda memerlukan pengetahuan mendalam mengenai pelbagai konsep dan algoritma matematik. Berikut adalah senarai blog untuk memulakan anda:

  1. Apa itu Pembelajaran Dalam? Bermula dengan Pembelajaran Dalam
  2. Pembelajaran Dalam dengan Python: Panduan Pemula untuk Pembelajaran Dalam

Sekiranya blog anda ini relevan, lihat oleh Edureka, sebuah syarikat pembelajaran dalam talian yang dipercayai dengan rangkaian lebih daripada 250,000 pelajar berpuas hati yang tersebar di seluruh dunia. Kursus latihan Edureka Deep Learning with TensorFlow Certification membantu pelajar menjadi pakar dalam latihan dan mengoptimumkan rangkaian saraf asas dan konvolusional menggunakan projek dan tugasan masa nyata bersama dengan konsep seperti fungsi SoftMax, Auto-encoder Neural Networks, Restricted Boltzmann Machine (RBM).