26. Otomatik Kontrol Ulusal Konferansı, Samsun, Türkiye, 18 - 21 Eylül 2025, ss.723-728, (Tam Metin Bildiri)
Bu çalışmada, bir dört pervaneli insansız hava aracının yörünge takibi için tasarlanan kazanç-ayarlamalı kontrol yapısı, fonksiyon kestirim yöntemleri kullanılarak incelenmiştir. Önerilen kontrol mimarisi, havada asılı kalma durumunu sağlayan bir ileri besleme (feed-forward) bileşeni ile yörünge takip hatasını minimize etmeyi amaçlayan Lineer Kuadratik Regülatör (LQR) tabanlı bir durum geri besleme (state-feedback) bileşeninden oluşmaktadır. Hava aracının sapma (yaw) açısına bağlı değişen dinamikleri nedeniyle, LQR kazanç matrisinin bu açıya göre güncellenmesi gerekmektedir. Bu bağlamda, eğitim/enterpolasyon ve kıyaslama için seçilen denge noktalarında analitik olarak hesaplanan LQR kazançları üretilmiştir. Sonrasında bu kazançların gerçek zamanlı uygulamadaki hesaplama yükünü ortadan kaldırmak amacıyla doğrusal aradeğerleme ve derin bir yapay sinir ağı (YSA) kullanımı araştırılmıştır. Yöntemlerin performansı benzetim ortamında kök ortalama kare hata metriği ve kapalı çevrim özdeğer analizi ile karşılaştırılmıştır. Sonuçlar, her iki fonksiyon kestirim yönteminin de analitik LQR kontrolcüye çok yakın performans sergilediğini ve özellikle YSA modelinin, sistem kararlılığını koruyarak LQR kazançlarını başarılı bir şekilde öğrendiğini göstermektedir. Bu çalışma, karmaşık kontrol yasalarının işlem gücü kısıtlı platformlarda etkin bir şekilde uygulanabilmesi için pratik yaklaşımlar sunmaktadır.
In this study, a gain-scheduled control structure designed for the trajectory tracking of a quadrotor unmanned aerial vehicle is investigated using function approximation methods. The proposed control architecture consists of a feed-forward component that ensures hovering and a state-feedback component based on the Linear Quadratic Regulator (LQR) aimed at minimizing trajectory tracking error. Due to the system's dynamics changing with the yaw angle, the LQR gain matrix must be scheduled according to this angle. In this context, analytically calculated LQR gains for selected equilibrium points of the system are generated for training/interpolation and benchmarking. Subsequently, the use of linear interpolation and a deep artificial neural network (ANN) was explored to eliminate the computational burden of real-time implementation. The performance of the methods was compared in a simulation environment using the root mean square error (RMSE) metric and closed-loop eigenvalue analysis. The results show that both function approximation methods exhibit performance very close to the analytical LQR controller, and the ANN model, in particular, successfully learns the LQR gains while maintaining system stability. This study presents practical approaches for the effective implementation of complex control laws on computationally constrained platforms.