View Item 
      •   IPB Repository
      • Dissertations and Theses
      • Master Theses
      • MT - School of Data Science, Mathematic and Informatics
      • View Item
      •   IPB Repository
      • Dissertations and Theses
      • Master Theses
      • MT - School of Data Science, Mathematic and Informatics
      • View Item
      JavaScript is disabled for your browser. Some features of this site may not work without it.

      Model Transfer Learning Untuk Klasifikasi Ikan Pada Lingkungan High Performance Computing

      Thumbnail
      View/Open
      Cover (2.609Mb)
      Fulltext (1.037Mb)
      Lampiran (601.6Kb)
      Date
      2025
      Author
      Prameswari, Florecita
      Haryanto, Toto
      Rahmawan, Hendra
      Metadata
      Show full item record
      Abstract
      Keanekaragaman hayati perairan memegang peran penting dalam menjaga struktur, stabilitas, dan kesehatan ekosistem akuatik. Namun dalam beberapa dekade terakhir seiring dengan banyaknya aktivitas yang dilakukan manusia mulai dari perikanan, perubahan iklim serta meningkatkan pembangunan pesisir membuat upaya konservasi menjadi semakin menantang ditambah dengan adanya perhatian publik dalam hal ini. Salah satu langkah yang dapat dilakukan untuk melindungi keanekaragaman hayati perairan adalah melakukan pemantauan yang berkelanjutan melalui pengenalan spesies dan identifikasi fungsional secara cepat dan efisien. Berbagai macam dataset citra telah dikembangkan untuk mendukung pemantauan berkelanjutan pada penelitian klasifikasi ikan, salah satunya adalah dataset FishNet. FishNet merupakan dataset berskala besar dan beragam secara taksonomi namun distribusi antar kelasnya tidak merata sehingga mempengaruhi kemampuan model dalam generalisasi pada kelas minoritas. Beberapa kombinasi fungsi loss yaitu class-balanced loss, focal loss, dan kombinasi keduanya digunakan untuk mengatasi masalah tersebut namun hasilnya belum menunjukkan performa yang optimal. Penelitian ini bertujuan untuk meningkatkan akurasi model penelitian sebelumnya serta menganalisis peningkatan kinerja komputasi selama hyperparameter tuning dan pelatihan model di NVIDIA DGX A100. Penelitian ini menerapkan transfer learning menggunakan ResNet152 dan EfficientNetV2 pada dataset FishNet target klasifikasi pada tingkat famili dan ordo. ResNet152 digunakan untuk menilai apakah semakin banyak lapisan pada jaringan dapat meningkatkan kemampuan ekstraksi fitur dan akurasi klasifikasi dibandingkan varian sebelumnya. Penelitian sebelumnya belum mengeksplorasi arsitektur yang berfokus pada efisiensi komputasi sehingga EfficietNetV2 dipertimbangkan pada penelitian ini karena dirancang untuk efisiensi komputasi melalui penggunaan fused-MBConv blocks dan strategi progressive scalling. Strategi pelatihan yang digunakan mencakup kombinasi class-balanced focal loss sebagai fungsi loss, augmentasi khusus pada kelas minoritas, serta hyperparameter tuning menggunakan bayesian optimization dengan surrogate modelnya tree-structured parzen estimator. Analisis peningkatan kinerja akurasi dilakukan dengan menggunakan konfigurasi multi-instance GPU (MIG). MIG digunakan sebagai lingkungan komputasi untuk membandingkan peningkatan kinerja komputasi antara single-GPU dan multi-GPU dengan CPU sebagai baseline. Data yang digunakan adalah dataset FishNet dengan tahapan penelitian dimulai dari pengumpulan data, kemudian praproses data yaitu resize ukuran citra, augmentasi data yang dilakukan secara offline dan online, pembagian data menjadi data latih, data uji, dan data validasi, proses hyperparameter tuning, pembuatan model klasifikasi, dan evaluasi terhadap model menggunakan metrik evaluasi. Eksperimen dilakukan dengan melatih 32 model yang mencakup empat kategori dataset, dua tingkat taksonomi, dan dua konfigurasi GPU. Model EfficientNetV2 mencapai akurasi 82,40% dan F1-score 81,94% pada klasifikasi Famili rare, sementara ResNet152 meraih akurasi 90,60% dan F1-score 90,54% pada klasifikasi Ordo rare, melampaui kinerja state-of-the-art sebelumnya. Hyperparameter tuning menggunakan multi-GPU meningkatkan kinerja komputasi 100x lebih cepat dibanding menggunakan CPU dan sekitar 1,3 – 1,8x lebih cepat dibanding menggunakan single-GPU. Peningkatan kinerja komputasi pada pelatihan model ResNet152 lebih tinggi dibandingkan dengan EfficientNetV2 di seluruh kategori, dengan penggunaan single-GPU 60x lebih cepat dibandingkan dengan menggunakan CPU. Evaluasi peningkatan kinerja pada pelatihan model dilakukan dengan menggunakan konfigurasi hyperparameter optimal yang diperoleh pada saat hyperparameter tuning untuk setiap kombinasi model dan kategori. Peningkatan kinerja komputasi pada penelitian ini hanya mengukur efisiensi throughput dengan konfigurasi MIG tanpa membandingkan langsung kecepatan pelatihan antar model yang digunakan.
       
      Aquatic biodiversity plays a crucial role in maintaining the structure, stability, and health of aquatic ecosystems. However, in recent decades, increasing human activities such as fishing, climate change, and coastal development have made conservation efforts increasingly challenging, further complicated by growing public concern over these issues. One of the key measures to protect aquatic biodiversity is conducting continuous monitoring through rapid and efficient species recognition and functional identification. Various image datasets have been developed to support continuous monitoring in fi sh classification research, one of which is the FishNet dataset. FishNet provides a large-scale and taxonomically diverse benchmark. However, its imbalanced class distribution limits models’ ability to generalize to minority classes. Previous researchers have applied several loss function strategies, such as class-balanced loss, focal loss, and their combination, to address this issue, but the performance remains suboptimal. This research aims to improve the accuracy of previous research models and analyze computational performance improvements during hyperparameter tuning and model training on the NVIDIA DGX A100. The method applies transfer learning with ResNet152 and EfficientNetV2 on FishNet, targets classification at the family and order levels. ResNet152 was used to assess whether more layers in the network could improve feature extraction capabilities and classification accuracy compared to previous variants. Previous studies have not explored architectures that focus on computational efficiency, so EfficientNetV2 was considered in this study because it was designed for computational efficiency through the use of fused-MBConv blocks and progressive scaling strategies. The training strategy used includes a combination of class-balanced focal loss as a loss function, special augmentation on minority classes, and hyperparameter tuning using Bayesian optimization with its surrogate model, the Tree-Structured Parzen estimator. The analysis of a computational performance improvements was conducted using a multi-instance GPU (MIG) configuration. MIG was used as the computing environment to compare computational performance across single-GPU and multi-GPU with CPU as the baseline. The data used was the FishNet dataset with research stages starting from data collection, then data preprocessing, namely image resizing, offline and online data augmentation, data division into training data, test data, and validation data, hyperparameter tuning, classification model creation, and model evaluation using evaluation metrics. The experiments trained 32 models across four dataset categories, two taxonomic levels, and two GPU configurations. EfficientNetV2 achieved 82,40% accuracy and 81,94% F1-score on rare family classification, while ResNet152 reached 90,60% accuracy and 90,54% F1-score on rare order classification, surpassing previous state-of-the-art performance. Hyperparameter tuning using multi-GPU increased computational performance up to 100x faster than using a CPU and approximately 1,3–1,8x faster than single GPU configurations. The increase in computational performance during ResNet152 training was higher than that of EfficientNetV2 training in all categories, with a single GPU being 60x faster than using a CPU. The evaluation of performance improvements in model training was conducted using the optimal hyperparameter configuration obtained during hyperparameter tuning for each combination of model and category. The computational performance improvements in this study only measured throughput efficiency with the MIG configuration without directly comparing the training speeds between the models used.
       
      URI
      http://repository.ipb.ac.id/handle/123456789/171618
      Collections
      • MT - School of Data Science, Mathematic and Informatics [69]

      Copyright © 2020 Library of IPB University
      All rights reserved
      Contact Us | Send Feedback
      Indonesia DSpace Group 
      IPB University Scientific Repository
      UIN Syarif Hidayatullah Institutional Repository
      Universitas Jember Digital Repository
        

       

      Browse

      All of IPB RepositoryCollectionsBy Issue DateAuthorsTitlesSubjectsThis CollectionBy Issue DateAuthorsTitlesSubjects

      My Account

      Login

      Application

      google store

      Copyright © 2020 Library of IPB University
      All rights reserved
      Contact Us | Send Feedback
      Indonesia DSpace Group 
      IPB University Scientific Repository
      UIN Syarif Hidayatullah Institutional Repository
      Universitas Jember Digital Repository