
Di era digital saat ini, data menjadi bagian penting dalam hampir setiap aspek kehidupan. Mulai dari media sosial, pendidikan, hingga dunia industri, semua menghasilkan dan mengolah data. Oleh karena itu, kemampuan analisis data menjadi salah satu keterampilan penting yang perlu dipelajari sejak bangku SMA.
Pada BAB 6 Analisis Data, siswa akan mulai diperkenalkan dengan alat dan dasar pemrograman yang digunakan untuk mengolah data, yaitu Google Colaboratory dan bahasa pemrograman Python.
Apa itu Google Colaboratory?
Google Colaboratory (Google Colab) adalah layanan gratis dari Google yang memungkinkan kita menulis dan menjalankan kode Python secara online melalui browser. Dengan Google Colab, siswa tidak perlu menginstal aplikasi tambahan di komputer. Cukup memiliki akun Google dan koneksi internet, kita sudah bisa langsung belajar pemrograman dan analisis data.
Google Colab banyak digunakan karena:
-
Mudah diakses kapan saja dan di mana saja
-
Mendukung pembelajaran kolaboratif
-
Cocok untuk pemula yang baru belajar Python
Mengenal Kode print
Saat belajar pemrograman, langkah awal yang penting adalah menampilkan output. Dalam Python, perintah yang digunakan untuk menampilkan teks atau hasil perhitungan ke layar adalah print.
Contoh sederhana:
Kode tersebut akan menampilkan teks sesuai dengan yang dituliskan di dalam tanda petik. Perintah print membantu kita memahami apakah program berjalan dengan benar.
Memahami Variabel dalam Python
Variabel adalah tempat untuk menyimpan data agar bisa digunakan kembali. Dalam Python, variabel dapat berisi berbagai jenis data, seperti teks, angka, atau hasil perhitungan.
Contoh penggunaan variabel:
Dari contoh di atas, variabel nama menyimpan data berupa teks, sedangkan umur menyimpan data berupa angka. Variabel memudahkan kita mengelola dan mengolah data dalam program.
Contoh Penggunaan Bahasa Python
Python dikenal sebagai bahasa pemrograman yang sederhana dan mudah dipahami. Berikut contoh penggunaan Python untuk operasi sederhana:
Kode tersebut menunjukkan bagaimana Python digunakan untuk melakukan perhitungan dan menampilkan hasilnya. Konsep ini menjadi dasar dalam analisis data, seperti menghitung jumlah, rata-rata, atau mengolah data lainnya.
Penutup
Melalui pembelajaran Google Colaboratory dan dasar bahasa Python, siswa diharapkan mampu memahami konsep awal analisis data secara bertahap. Materi ini tidak hanya melatih logika berpikir, tetapi juga membekali siswa dengan keterampilan digital yang relevan dengan perkembangan zaman.
Belajar analisis data bukan tentang menjadi ahli dalam satu malam, tetapi tentang memahami proses dan berani mencoba. Dari baris kode sederhana, lahirlah pemahaman besar tentang dunia data.
Materi:
https://gamma.app/docs/BAB-6-nypg5wg0o9ihiyz
Pengumpulan Tugas
T1 Google Colaboratory
XA: https://drive.google.com/drive/folders/1soAKQ5FfGsmfWa7OtiwJsPEUkrfrTeQi?usp=sharing
XB: https://drive.google.com/drive/folders/1nacj1hGc0T4Hecx6GZV1u6dV1eyY8rYL?usp=sharing
Web Scraping
Mengambil data dari website.
1. Langkah pertama buka terminal
2. ketik pip install requests beautifulsoup4 pandas kemudian enter.Contoh web scraping 1:
import requests
from bs4 import BeautifulSoup
import pandas as pd
url = "http://quotes.toscrape.com/"
response = requests.get(url)
if response.status_code == 200:
print("Halaman berhasil diambil!\n")
else:
print("Gagal mengambil halaman!")
soup = BeautifulSoup(response.text, "html.parser")
quotes = soup.find_all("div", class_="quote")
data = []
for q in quotes:
isi = q.find("span", class_="text").text
penulis = q.find("small", class_="author").text
print("Isi Berita :", isi)
print("Penulis :", penulis)
print("-" * 40)
data.append([isi, penulis])
# Simpan ke CSV
df = pd.DataFrame(data, columns=["Isi Berita", "Penulis"])
df.to_csv("hasil_scraping.csv", index=False)
print("\nData berhasil disimpan ke hasil_scraping.csv")
Contoh web scraping 2:
import requests
from bs4 import BeautifulSoup
base_url = "http://quotes.toscrape.com/page/{}/"
for page in range(1, 4): # halaman 1 sampai 3
print(f"\n=== Halaman {page} ===")
url = base_url.format(page)
response = requests.get(url)
soup = BeautifulSoup(response.text, "html.parser")
quotes = soup.find_all("div", class_="quote")
for q in quotes:
isi = q.find("span", class_="text").text
penulis = q.find("small", class_="author").text
print("Isi :", isi)
print("Penulis :", penulis)
print("-" * 30)
Contoh web scraping 3:
import requests
from bs4 import BeautifulSoup
import matplotlib.pyplot as plt
# URL halaman 1
url = "http://quotes.toscrape.com/"
response = requests.get(url)
soup = BeautifulSoup(response.text, "html.parser")
quotes = soup.find_all("div", class_="quote")
# Dictionary untuk menghitung jumlah kutipan per penulis
data_penulis = {}
for q in quotes:
penulis = q.find("small", class_="author").text
if penulis in data_penulis:
data_penulis[penulis] += 1
else:
data_penulis[penulis] = 1
# Pisahkan nama dan jumlahnya
nama_penulis = list(data_penulis.keys())
jumlah_kutipan = list(data_penulis.values())
# Membuat grafik batang
plt.figure()
plt.bar(nama_penulis, jumlah_kutipan)
plt.xlabel("Penulis")
plt.ylabel("Jumlah Kutipan")
plt.title("Jumlah Kutipan per Penulis")
plt.xticks(rotation=45)
plt.show()