Berurusan dengan noise pada jaringan syaraf buatan

S

sanjay

Guest
Hi all, Konsep kebisingan untuk melatih sistem tertentu untuk klasifikasi sinyal. Saya menerapkan sebuah sistem, dimana sinyal bisa dan tidak bisa tenggelam dalam kebisingan. Dari jaringan yang dirancang sejauh ini, saya mendapatkan yang sangat baik (well, hampir luar biasa) hasil keluar dari kedua pelatihan dan simulasi, ketika saya tidak memiliki suara untuk input dari sinyal. Namun, ketika saya mencoba untuk memeriksa perilaku output dari jaringan sementara simulasi jaringan dengan noise, sinyal saya klasifikasi JST jadi kacau. Saya telah melihat ke dalam kemungkinan overfitting dan masalah yang berhubungan dengan itu. Namun sejauh ini, belum benar-benar mengalami keberhasilan. Bahkan mencoba nilai yang berbeda untuk belajar menilai, momentum, perubahan ukuran jaringan tidak berhasil. Dapatkah seseorang berbagi keahlian mereka tentang komentar terhadap masalah beradaptasi jaringan saraf untuk klasifikasi sinyal dengan noise menggunakan metode backpropagation. Bantuan Salam reallyyyyyyyyyyyyyy akan dihargai
 
1. Jika NN belajar konvergen, cobalah beberapa kondisi awal (beban). 2. Saya tidak tahu apa yang Anda gunakan sebagai masukan. Namun, jika NN tidak dapat mengklasifikasikan input berisik benar, mungkin terjadi bahwa suara membuat ruang fitur input input differect tumpang tindih dan tidak ada banyak yang tersisa untuk melakukan diskriminasi. Anda dapat mencoba makan lebih banyak data dari sinyal (mungkin dalam beberapa domain transform). Ini seperti jika Anda tidak bisa mengatakan 2 objek terpisah dengan melihat satu sudut, kemudian putar dan melihat sudut yang lain.
 
Hai, jaringan saraf saya tidak bertemu, tapi lucunya saya cant keluar SECARA LOGIKA adalah bahwa mengapa konvergen untuk set input yang sama, parametres jaringan yang sama ketika saya menambahkan suara 0,5% (gaussian distribusi) dimana, jika saya melatihnya tanpa Kebisingan, tidak bertemu, melainkan duduk dalam garis lurus. Saya sudah mencoba fungsi initalization berbeda untuk bobot dan bias, serta belajar algoritma yang berbeda, pada saat ini, algoritma Levenberg Marquadt adalah melakukan pekerjaan terbaik bagi saya.
 
mungkin karena langkah besar ketika Anda discretize data ... cant perubahan kecil dideteksi ... menambah kebisingan memungkinkan data untuk pergi ke nilai berikutnya ... sehingga tidak ada garis lurus ** setidaknya thats apa yang saya baca dalam buku **
 

Welcome to EDABoard.com

Sponsor

Back
Top