Штучні нейронні мережі як апроксимаційний апарат в задачах проектування радіотехнічних пристроїв
DOI:
https://doi.org/10.20535/RADAP.2012.51.41-49Ключові слова:
штучна нейронна мережа, частотно-вибіркові мікрохвильові пристрої, апроксимація характеристик, оптимальна конфігурація НМАнотація
Штучні нейронні мережі як апроксимаційний апарат в задачах проектування радіотехнічних пристроїв. В роботі розглянуто переваги застосування НМ в якості апроксимаційного апарата в задачах проектування частотовибіркових НВЧ пристроїв. Визначено та проаналізовано час та похибку навчання НМ різної конфігурації (кількість шарів та нейронів у кожному шарі) при апроксимації s-параметрів МДФ з різною кількістю резонаторів. Досліджено динаміку зміни похибки при використанні різних методів навчання НМ та проведено вибір оптимального методу навчання з врахуванням затраченого часу та похибки.Посилання
Література
Горбань А. Н. Обобщенная аппроксимационная теорема / А.Н. Горбань // Сибирский журнал вычислительной математики, 1998. – Т.1 – № 1. – С.12 – 24. .
Адаменко В. О. Використання нейронних мереж для синтезу мікрохвильових пристроїв / В. О. Адаменко, Г. О. Мірських // Вісник НТУУ "КПІ". Серія Радіотехніка. Радіоапаратобудування. – 2012. – №49. – С. 102–107.
Маттей Д. Л. Фильтры СВЧ, согласующие цепи и цепи связи / Д. Л. Маттей, Л. Янг, Е.М.Т. Джонс / Пер. с англ. / Под ред. Л.В. Алексеева, Ф.В. Кушнира. – М.: Связь, 1971. – т.1. – 248 с.
Hagan M. T. Training feedforward networks with the Marquardt algorithm / M. T. Hagan, M. B. Menhaj // Neural Networks, IEEE Transactions on Neural Networks – 1994. – vol. 5, No. 6. – P. 989 – 993.
Meng-Hock Fun. Levenberg-Marquardt training for modular networks / Meng-Hock Fun, O. K. Stillwater, M. T. Hagan // IEEE International Conference on Neural Networks. – 1996. – vol. 1 – P. 463 – 473.
Адаменко В. О. Штучні нейронні мережі в задачах реалізації матеріальних об'єктів. Частина 2. Особливості проектування та застосування / В. О. Адаменко, Г. О. Мірських // Вісник НТУУ "КПІ". Серія Радіотехніка. Радіоапаратобудування. – 2012. – №48 – С. 213 – 221.
Dennis J. E. Numerical Methods for Unconstrained Optimization and Nonlinear Equations / J. E. Dennis, R. B. Schnabel – SIAM. – 1987. – 394 P. – ISBN: 978-0-89871-364-0
Foresee F. D. Gauss-Newton approximation to Bayesian regularization / F. D. Foresee, M. T. Hagan // Proccedings of the 1997 International Joint Conference on Neural Networks – 1997. – P. 1930 – 1935.
Медведев В. С. Нейронные сети. MATLAB 6 / В. С. Медведев, В. Г. Потемкин. – М. : ДИАЛОГ-МИФИ, 2002. – 496 с. – ISBN 5-86404-163-7.
Hagan M. T. Neural Network Design / M. T. Hagan, H. B. Demuth, M. H. Beale – China Machine Press, 1996. – 734 P.– ISBN 7-111-10841-8.
Riedmiller M. A Direct Adaptive Method for Faster Backpropagation Learning: The RPROP Algorithm / M. Riedmiller, H. Braun // IEEE International Conference On Neural Networks, 1993.
References
Horban A.N. Obobshchennaya approksymatsyonnaya teorema / A.N. Horban // Sybyrskyy zhurnal vыchyslytel'noy matematyky, 1998. — T.1 — No. 1. — S.12 — 24.
Adamenko V. O. Using neural networks for the synthesis of microwave devices. / V. O. Adamenko, G. O. Mirskykh // Visnyk NTUU "KPI". Serija Radiotehnika, Radioaparatobuduvannja, 2012. — No. 49. — S. 102 — 107.
Mattey D.L. Fyltry SVCh, sohlasuyushchye tsepy y tsepy svyazy / D.L. Mattey, L. Yanh, E.M.T. Dzhons / Per. s anhl. / Pod red. L.V. Alekseeva, F.V. Kushnyra. — M.: Svyaz', 1971. — t.1. — 248 s.
Hagan M.T. Training feedforward networks with the Marquardt algorithm / M.T. Hagan, M.B. Menhaj // Neural Networks, IEEE Transactions on Neural Networks — 1994. — vol. 5, No. 6. — P. 989 — 993.
Meng-Hock Fun. Levenberg-Marquardt training for modular networks / Meng-Hock Fun, Stillwater, O. K, Hagan, M.T. // IEEE International Conference on Neural Networks, 1996. — Vol. 1 — P. 463 — 473.
Adamenko V.O. Artificial neural networks in problems of material objects implementation. Part 2. Networking principles and Classification / V. O. Adamenko, G.O. Mirskykh // Visnyk NTUU "KPI". Serija Radiotehnika, Radioaparatobuduvannja, 2012. — No. 48 — S. 213 — 221.
Dennis J. E. Numerical Methods for Unconstrained Optimization and Nonlinear Equations / J. E. Dennis, R. B. Schnabel — SIAM. — 1987. — 394 P.
Foresee F. D. Gauss-Newton approximation to Bayesian regularization / F. D. Foresee, M. T. Hagan // Proccedings of the 1997 International Joint Conference on Neural Networks, 1997. — P. 1930 — 1935.
Medvedev V. S. Nejronnye seti. MATLAB 6 / V. S. Medvedev, V. G. Potemkin. — M.: DIALOG-MIFI, 2002. — 496 s. — ISBN 5-86404-163-7.
Hagan M. T. Neural Network Design / M. T. Hagan, H. B. Demuth, M. H. Beale — China Machine Press, 1996. — 734 P.— ISBN 7-111-10841-8.
Riedmiller M. A Direct Adaptive Method for Faster Backpropagation Learning: The RPROP Algorithm / M. Riedmiller, Braun H. // IEEE International Conference On Neural Networks, 1993.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
1. Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution License, котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у нашому журналі.
2. Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована нашим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у нашому журналі.
3. Політика журналу дозволяє і заохочує розміщення рукопису роботи авторами в мережі Інтернет (наприклад, на arXiv.org або на особистих веб-сайтах). Причому рукописи статей можуть бути розміщенні у відкритих архівах як до подання рукопису до редакції, так і під час його редакційного опрацювання. Це сприяє виникненню продуктивної наукової дискусії, позитивно позначається на оперативності ознайомлення наукової спільноти з результатами Ваших досліджень і як наслідок на динаміці цитування вже опублікованої у журналі роботи. Детальніше про це: The Effect of Open Access.