Integracja sensoryczna – kamery, detekcja i oprogramowanie

Integracja systemu wizyjnego

Aby zautomatyzować wybór punktu pomiarowego, ramię zostało wyposażone w kamerę stereowizyjną (3D) zamontowaną na platformie. Obraz z kamery jest przetwarzany przez komputer sterujący za pomocą algorytmów (np. OpenCV), które lokalizują liście i owoce. Na obecnym etapie operator wskazuje cel na obrazie, a system oblicza współrzędne ruchu ramienia, prowadząc czujnik do wybranego fragmentu rośliny.

Rysunek 2. Model koncepcyjny: etapy montażu i konfiguracji manipulatora z komorą pomiarową oraz jednostką sterującą. Ramię zostało zaprojektowane z myślą o precyzyjnych pomiarach fluorescencji pestycydów w warunkach polowych.

Elektronika i oprogramowanie sterujące

  • Kontroler robotyczny i komputer pokładowy: Komunikacja z cobotem odbywa się po sieci Ethernet lub przemysłowej magistrali (np. EtherCAT). Komputer sterujący, przemysłowy PC typu „field computer”, koordynuje akwizycję obrazu, ruch ramienia oraz odbiór danych ze spektrometru.
  • Oprogramowanie: System oparty jest na ROS (Robot Operating System) oraz bibliotekach do przetwarzania obrazu i sterowania robotem (Python, OpenCV). Dedykowana aplikacja GUI pozwala operatorowi na wybór punktu pomiarowego oraz wizualizację wyników pomiaru.
  • Integracja spektrometru i diod UV: Komora pomiarowa na końcówce ramienia wyposażona jest w zestaw diody UV-LED oraz spektrometr UV-Vis/NIR. Spektrometr komunikuje się przez USB, a diody UV sterowane są sygnałem cyfrowym z kontrolera.
Rysunek 3. Wygląd GUI: obraz z kamery 3D pokazujący jabłonie, aktualne widmo fluorescencji oraz panel sterowania ramieniem robotycznym. System ogłoszony do pracy w trybie półautomatycznym.

Serwis korzysta z plików cookies w celu realizacji usług zgodnie z Polityką dotyczącą cookies. Możesz określić warunki przechowywania lub dostępu do cookie w ustawieniach przeglądarki.