Kamis, 09 Februari 2023

ANALISIS DATA (CHAPTER ONE)

 

ANALISIS DATA

(CHAPTER ONE)


Tujuan Pembelajaran

Setelah mempelajari bab ini, kalian mampu (a) menggunakan alat bantu untuk menulis, menjalankan, dan mengembangkan program analisis data; (b) memahami pengkoleksian data melalui berbagai cara, khususnya secara otomatis melalui perangkat; (c) memahami transformasi data; (d) melakukan interpretasi data dan memahami aspek privasi dan keamanan data.

Pertanyaan Pematik

Bagaimana cara untuk mengumpulkan banyak data secara otomatis dan menampilkannya agar kita mudah memahami data tersebut?

Peta Konsep





Apersepsi

Apakah kalian pernah memakai mesin pencari seperti Google, Bing, Yahoo atau lainnya untuk mencari data? Dengan mengetikkan satu atau lebih kata kunci, semua halaman web yang mengandung apa yang kalian ketikkan tersebut muncul. Bagaimana mesin pencari melakukan itu?

Kata Kunci

Analisis Data, Google Colaboratory, Koleksi Data, Web Scraping, Visualisasi Data

Pengantar Analisis Data

Pernahkah kalian mengalami saat sedang mencari informasi menemukan bahwa informasinya bertebaran di beberapa, bahkan di banyak halaman web? Mungkin pada saat itu kalian melakukan pencarian dengan mesin pencari dan mendapatkan hasil berupa daftar halaman yang memuat informasi yang kalian cari. Contohnya misalnya kalian ingin membanding-bandingkan harga barang dari beberapa situs toko online. Kalian harus membuka halamannya satu per satu, kemudian membandingkan, dan memutuskan akan membeli barang sesuai dengan kriteria yang kalian tetapkan. Jika membuka semua halaman web tersebut harus dilakukan manual, akan sangat melelahkan dan membosankan bukan? Bayangkan jika ada robot yang dapat melakukannya untuk kalian, sehingga mudah untuk menganasis. Tentunya pengambilan keputusan akan menjadi lebih cepat. Robot itu tidak harus berwujud seperti manusia lho. Robot dapat berupa sebuah perangkat lunak komputer. Nah, pada unit ini kalian akan membuat sebuah robot seperti ini yang akan membantu kalian.
Setelah lulus kuliah, apa yang kalian lakukan jika ingin mencari pekerjaan? Atau mungkin selama kuliah juga ingin mencari pekerjaan sambilan (part time)? Untuk mencari lowongan pekerjaan, kita menggunakan koran atau pun halaman web, misalnya JobsID. Coba ketik https://www.jobs.id/ di browser. Di halaman ini, kalian dapat mencari pekerjaan dengan memasukkan kata kunci pekerjaan di form pencarian yang ada, misalnya pekerjaan sambilan atau “part time”, seperti diperlihatkan pada Gambar dibawah ini.

Dari halaman tersebut kita peroleh daftar pekerjaan yang ditampilkan cukup detail dalam beberapa halaman. Dengan tampilan tersebut, kita perlu melakukan scroll sekitar delapan kali untuk mendapatkan sekitar 23 lowongan pekerjaan. Bagaimana caranya kita dapat merangkum lowongan pekerjaan tersebut sehingga lebih mudah untuk melihat dan memilih pekerjaan yang kita inginkan?
Dalam kajian analisis data, terdapat teknik yang disebut sebagai scraping. Scraping adalah salah satu bentuk penyalinan, di mana data tertentu dikumpulkan dan disalin dari sebuah halaman web, bisa ke dalam basis data, spreadsheet atau tampilan tertentu untuk pengambilan atau analisis data. Scraping bisa dilakukan dengan menggunakan sebuah bahasa pemrograman yang mendukung. Dengan scraping, kita bisa mendapatkan rangkuman dari suatu halaman web sehingga 23 lowongan yang sebelumnya ditampilkan dalam beberapa scroll kini menjadi diringkas dalam satu tampilan dengan data penting yang kita inginkan saja. Dalam aktivitas di unit pembelajaran ini, kita akan melakukan scraping dengan
membuat program yang mengambil data dari sebuah halaman website.
Untuk membangun sebuah scraper, kita perlu menentukan bahasa pemrograman yang memudahkan kita. Setiap bahasa pemrograman akan diimplementasi oleh sebuah lingkungan pengembangan terintegrasi (Integrated Development Environment/IDE) tertentu. Ada banyak pilihan bahasa pemrograman beserta IDE-nya. Disini kita akan menggunakan bahasa pemrograman Python. Bahasa Python dipilih karena menjadi bahasa yang sering digunakan dalam analisis data. Python memiliki banyak sekali fungsi dan library (pustaka) yang memudahkan kita untuk melakukan analisis data, salah satunya untuk melakukan scraping ini.
Kemudian untuk membuat program Python, kita memerlukan alat bantu IDE atau lingkungan kerja untuk menulis dan menjalankan program Python tersebut. Salah satu alat bantu yang bisa kita gunakan ini yaitu Google Collaboratory atau Google Colab. Google Colab dipilih karena dapat digunakan secara online untuk mengambil data dari website yang online pula. Selain itu, banyak fungsi dan pustaka Python yang sudah terpasang dalam Google Colab sehingga bisa langsung digunakan.
Kita akan mulai dengan pengenalan alat bantu Google Colab dan Python. Setelah cukup mengenal dua alat bantu analisis data ini, mulailah kita membuat proyek untuk scraping halaman website yang dipilih. Kemudian setelah itu, data hasil scraping ini divisualisasikan ke dalam berbagai bentuk diagram dan chart.


Tidak ada komentar:

Posting Komentar

Tugas Diskusi: Sistem Komputer Tujuan: Memahami komponen dan fungsi dasar dari sistem komputer serta bagaimana sistem ini bekerja untuk men...