Optimasi Deep Learning untuk Prediksi Drug-Target Interaction dengan Graphic Processing Unit
Date
2022-08-12Author
Darmawan, Refianto Damai
Kusuma, Wisnu Ananta
Rahmawan, Hendra
Metadata
Show full item recordAbstract
Data drug-target interaction (DTI) yang semakin meningkat secara eksponensial menimbulkan permasalahan baru, yakni lamanya waktu komputasi. Besarnya data DTI tersebut menyebabkan lamanya waktu pelatihan model prediksi DTI untuk menentukan senyawa-senyawa potensial berkhasiat obat. Lamanya pengolahan data ini dapat berdampak pada waktu penelitian drug discovery yang lebih lama juga, karena tahap in silico biasa dilakukan di awal rangkaian penelitian, sehingga keterlambatan tahap ini membuat tahapan lainnya mengalami penundaan.
Penelitian ini bertujuan untuk melihat seberapa baik performa GPU saat digunakan untuk permasalahan deep learning dalam rangka melakukan prediksi drug-target interaction. Data penelitian menggunakan lima dataset gold standard yakni enzyme, ion receptor, G-protein coupled receptor, dan nuclear receptor, serta dataset COVID-19. Metode yang digunakan adalah utilisasi algoritme deep learning secara paralel menggunakan GPU. Model yang dibangkitkan terdiri dari dua jenis, yakni yang menggunakan Central Processing Unit (CPU), dan menggunakan GPU. Kedua jenis model ini dibuat agar performa GPU dalam mengolah data dapat dibandingkan secara langsung dengan pengolahan data tanpa GPU. Setelah model dibuat, dilakukan hyperparameter tuning untuk menentukan hyperparameter yang optimal bagi masing-masing model. Performa model dihitung menggunakan parameter akurasi, recall, precision, F-measure, dan speed-up.
Hasil dari penelitian ini menunjukkan bahwa penggunaan GPU dalam model deep learning dapat mempercepat proses pelatihan hingga 100 kali lipat. Selain itu, proses hyperparameter tuning juga sangat terbantu dengan adanya GPU karena dapat mempersingkat proses dari hingga 55 kali lebih cepat. Performa model deep learning yang dihasilkan dengan model CPU pun tidak jauh berbeda bila dibandingkan dengan model GPU dilihat dari nilai akurasi, recall, precision, dan F-measure yang tidak jauh berbeda. Saat dicobakan dengan dataset COVID-19, model menunjukkan performa yang baik dengan akurasi 76%, F-measure 74%, dan nilai speed-up 179. Data tersebut menunjukkan bahwa potensi GPU sangat besar apabila diintegrasikan dengan model deep learning. Penerapan lebih lanjut dapat digunakan dalam komputer server dan high performance computer untuk mengolah data bioinformatika yang lebih besar dan lebih kompleks. The exponentially increasing drug-target interaction (DTI) data raised a new problem, namely the length of computation time. The amount of DTI data that needs to be processed caused longer training time needed to do DTI prediction on potential drug compounds. The length of this computation time can have an impact on a longer drug discovery research time as well, because the in silico stage is usually carried out at the beginning of the research series, so the delay in this stage will cause other stages to be delayed.
This study aims to see how well the GPU performs when used for deep learning problems in order to predict drug-target interactions. The research data uses five gold standard dataset which is enzyme, ion channel, G-protein coupled receptor, and nuclear receptor, as well as COVID-19 dataset. The method used is the utilization of deep learning algorithms in parallel using the GPU. The generated model consists of two types, namely those that use the Central Processing Unit (CPU), and those that use GPU. These two types of models are designed so that GPU performance in processing data can be compared directly with data processing without a GPU. After the model is created, hyperparameter tuning is performed to determine the optimal hyperparameter for each model. The performance of the model will be calculated using the parameters of accuracy, recall, precision, F-measure, and speed-up.
The results of this study indicate that the use of GPU in deep learning models can speed-up the training process by up to 100 times. In addition, the hyperparameter tuning process is also greatly helped by the presence of the GPU because it can make process up to 55 times faster. The performance of the deep learning model generated by the CPU model and GPU model is not much different when viewed from the values of accuracy, recall, precision, and F-measure which are not much different. When tested using COVID-19 dataset, the model showed good performance with 76% accuracy, 74% F-measure, and speed-up value of 179. The data shows that the potential of GPUs is enormous when integrated with deep learning models. Further applications can be used in server computers and high performance computers to process larger and more complex bioinformatics data.