Belajar dimulai dari hati!

Dimana hatimu! Seruku untuk niatmu terus maju dalam kerjamu.

Belajar bukan untuk diri sendiri!

Dimana pintarmu! Harapku untuk kerjamu bagi sesamamu.

Belajar bukan hanya dari pikiranmu sendiri!

Dimana ragamu! Kamu tidak akan bisa hidup sendiri karena belajar butuh referensi.

Belajar sebagian dari berdoa!

Dimana imanmu! Belajar perlu tuntunan dari Yang Maha Kuasa agar dilancarkan jalanmu.

Belajar perlu dekat dengan lingkungan!

Dimana panggilanmu! Belajar memiliki kesatuan dengan alam dan nafas hidup disekitarmu.

Tampilkan postingan dengan label Python. Tampilkan semua postingan
Tampilkan postingan dengan label Python. Tampilkan semua postingan

Selasa, 03 Februari 2026

Analisis Data [Kelas X]

Di era digital saat ini, data menjadi bagian penting dalam hampir setiap aspek kehidupan. Mulai dari media sosial, pendidikan, hingga dunia industri, semua menghasilkan dan mengolah data. Oleh karena itu, kemampuan analisis data menjadi salah satu keterampilan penting yang perlu dipelajari sejak bangku SMA.

Pada BAB 6 Analisis Data, siswa akan mulai diperkenalkan dengan alat dan dasar pemrograman yang digunakan untuk mengolah data, yaitu Google Colaboratory dan bahasa pemrograman Python.

Apa itu Google Colaboratory?

Google Colaboratory (Google Colab) adalah layanan gratis dari Google yang memungkinkan kita menulis dan menjalankan kode Python secara online melalui browser. Dengan Google Colab, siswa tidak perlu menginstal aplikasi tambahan di komputer. Cukup memiliki akun Google dan koneksi internet, kita sudah bisa langsung belajar pemrograman dan analisis data.

Google Colab banyak digunakan karena:

  • Mudah diakses kapan saja dan di mana saja

  • Mendukung pembelajaran kolaboratif

  • Cocok untuk pemula yang baru belajar Python

Mengenal Kode print

Saat belajar pemrograman, langkah awal yang penting adalah menampilkan output. Dalam Python, perintah yang digunakan untuk menampilkan teks atau hasil perhitungan ke layar adalah print.

Contoh sederhana:

print("Halo, selamat datang di Analisis Data!")

Kode tersebut akan menampilkan teks sesuai dengan yang dituliskan di dalam tanda petik. Perintah print membantu kita memahami apakah program berjalan dengan benar.

Memahami Variabel dalam Python

Variabel adalah tempat untuk menyimpan data agar bisa digunakan kembali. Dalam Python, variabel dapat berisi berbagai jenis data, seperti teks, angka, atau hasil perhitungan.

Contoh penggunaan variabel:

nama = "Andi"
umur = 16
print(nama)
print(umur)

Dari contoh di atas, variabel nama menyimpan data berupa teks, sedangkan umur menyimpan data berupa angka. Variabel memudahkan kita mengelola dan mengolah data dalam program.

Contoh Penggunaan Bahasa Python

Python dikenal sebagai bahasa pemrograman yang sederhana dan mudah dipahami. Berikut contoh penggunaan Python untuk operasi sederhana:

a = 10
b = 5
hasil = a + b
print("Hasil penjumlahan:", hasil)

Kode tersebut menunjukkan bagaimana Python digunakan untuk melakukan perhitungan dan menampilkan hasilnya. Konsep ini menjadi dasar dalam analisis data, seperti menghitung jumlah, rata-rata, atau mengolah data lainnya.

Penutup

Melalui pembelajaran Google Colaboratory dan dasar bahasa Python, siswa diharapkan mampu memahami konsep awal analisis data secara bertahap. Materi ini tidak hanya melatih logika berpikir, tetapi juga membekali siswa dengan keterampilan digital yang relevan dengan perkembangan zaman.

Belajar analisis data bukan tentang menjadi ahli dalam satu malam, tetapi tentang memahami proses dan berani mencoba. Dari baris kode sederhana, lahirlah pemahaman besar tentang dunia data.


Materi:

https://gamma.app/docs/BAB-6-nypg5wg0o9ihiyz

Pengumpulan Tugas

T1 Google Colaboratory

XA: https://drive.google.com/drive/folders/1soAKQ5FfGsmfWa7OtiwJsPEUkrfrTeQi?usp=sharing

XB: https://drive.google.com/drive/folders/1nacj1hGc0T4Hecx6GZV1u6dV1eyY8rYL?usp=sharing


Web Scraping 

Mengambil data dari website.

1. Langkah pertama buka terminal



2. ketik pip install requests beautifulsoup4 pandas kemudian enter.

Contoh web scraping 1:

import requests

from bs4 import BeautifulSoup

import pandas as pd

url = "http://quotes.toscrape.com/"

response = requests.get(url)

if response.status_code == 200:

    print("Halaman berhasil diambil!\n")

else:

    print("Gagal mengambil halaman!")

soup = BeautifulSoup(response.text, "html.parser")

quotes = soup.find_all("div", class_="quote")

data = []

for q in quotes:

    isi = q.find("span", class_="text").text

    penulis = q.find("small", class_="author").text

    print("Isi Berita :", isi)

    print("Penulis    :", penulis)

    print("-" * 40)

    data.append([isi, penulis])

# Simpan ke CSV

df = pd.DataFrame(data, columns=["Isi Berita", "Penulis"])

df.to_csv("hasil_scraping.csv", index=False)

print("\nData berhasil disimpan ke hasil_scraping.csv")


Contoh web scraping 2:

import requests

from bs4 import BeautifulSoup

base_url = "http://quotes.toscrape.com/page/{}/"

for page in range(1, 4):  # halaman 1 sampai 3

    print(f"\n=== Halaman {page} ===")

    url = base_url.format(page)

    response = requests.get(url)

    soup = BeautifulSoup(response.text, "html.parser")

    quotes = soup.find_all("div", class_="quote")

    for q in quotes:

        isi = q.find("span", class_="text").text

        penulis = q.find("small", class_="author").text

        print("Isi :", isi)

        print("Penulis :", penulis)

        print("-" * 30)


Contoh web scraping 3:

import requests

from bs4 import BeautifulSoup

import matplotlib.pyplot as plt

# URL halaman 1

url = "http://quotes.toscrape.com/"

response = requests.get(url)

soup = BeautifulSoup(response.text, "html.parser")

quotes = soup.find_all("div", class_="quote")

# Dictionary untuk menghitung jumlah kutipan per penulis

data_penulis = {}

for q in quotes:

    penulis = q.find("small", class_="author").text

    if penulis in data_penulis:

        data_penulis[penulis] += 1

    else:

        data_penulis[penulis] = 1

# Pisahkan nama dan jumlahnya

nama_penulis = list(data_penulis.keys())

jumlah_kutipan = list(data_penulis.values())

# Membuat grafik batang

plt.figure()

plt.bar(nama_penulis, jumlah_kutipan)

plt.xlabel("Penulis")

plt.ylabel("Jumlah Kutipan")

plt.title("Jumlah Kutipan per Penulis")

plt.xticks(rotation=45)

plt.show()


Contoh web scraping 4:

import requests
from bs4 import BeautifulSoup
import matplotlib.pyplot as plt

# URL halaman 1
url = "http://quotes.toscrape.com/"

response = requests.get(url)
soup = BeautifulSoup(response.text, "html.parser")

quotes = soup.find_all("div", class_="quote")

# Dictionary untuk menghitung jumlah kutipan per penulis
data_penulis = {}

for q in quotes:
    penulis = q.find("small", class_="author").text

    if penulis in data_penulis:
        data_penulis[penulis] += 1
    else:
        data_penulis[penulis] = 1

# Pisahkan nama dan jumlahnya
nama_penulis = list(data_penulis.keys())
jumlah_kutipan = list(data_penulis.values())

# Membuat grafik batang
plt.figure()
plt.bar(nama_penulis, jumlah_kutipan)

plt.xlabel("Penulis")
plt.ylabel("Jumlah Kutipan")
plt.title("Jumlah Kutipan per Penulis")
plt.xticks(rotation=45)

plt.show()


Contoh web scraping 5:

import requests from bs4 import BeautifulSoup import pandas as pd url = "https://kanisiusmedia.co.id/" response = requests.get(url) soup = BeautifulSoup(response.text, "html.parser") data = [] # mencari semua produk buku books = soup.find_all("li", class_="product") for book in books: # ambil judul buku title = book.find("h2", class_="woocommerce-loop-product__title") if title: title = title.text.strip() else: title = "Tidak ada judul" # ambil harga buku price = book.find("span", class_="woocommerce-Price-amount") if price: price = price.text.strip() else: price = "Tidak ada harga" data.append({ "Judul Buku": title, "Harga": price }) # ubah menjadi DataFrame df = pd.DataFrame(data) print(df) # simpan ke CSV df.to_csv("data_buku_kanisius.csv", index=False) print("Data berhasil disimpan!")