Veri analisti portföyü nasıl hazırlanır?
GitHub · Kaggle · proje seçimi · 15 dakika okuma
İşe alımcı özgeçmişine bakıyor. "Python biliyorum, SQL biliyorum" yazıyor. Her başvuran aynı şeyi yazıyor. Portföy burada devreye giriyor — teknik bilgiyi kanıtlayan, sözü gerçeğe dönüştüren yer.
Ama çoğu portföy yanlış yapılıyor. Ya çok teknik, ya çok boş, ya da tamamen yanlış sorulara cevap veriyor. Bu yazı o hataları atlaman için.
İşe alımcı portföyde ne arıyor?
Önce bunu netleştirmek lazım çünkü çoğu kişi portföyü "ne kadar çok şey biliyorum" vitriniymiş gibi yapıyor. Değil. İşe alımcı şunu sormak istiyor:
- Gerçek bir problemi anlayabiliyor mu? Rastgele veriyi oynamamış, bir soruya cevap aramış mı?
- Bulguları net aktarabiliyor mu? Grafik var ama anlatmak istiyor mu bir şey?
- Kodu başkası okuyabilir mi? Değişken isimleri anlamlı mı, yapı takip edilebilir mi?
- Sonuca ne diyor? "Şu çıktı" değil, "şu kararı almanızı öneririm" diyebiliyor mu?
10 proje yapıp 10 grafik çizmek yerine 2 proje yapıp ikisini de düzgün anlatmak çok daha güçlü bir portföy yaratır.
Kaç proje yeterli?
Üç proje yeterli. Gerçekten. Koşul: üçü de tamamlanmış, temiz, açıklamalı olsun.
Mantığı şu: işe alımcının bir portföye ayırdığı süre ortalama 3-5 dakika. On yarım bırakılmış projeyi 5 dakikada gezemezsin. Üç iyi projeyi gezersin.
İdeal kombinasyon:
- 1 vaka analizi: Gerçek veri, gerçek soru, net bulgu. Hikâye anlatan proje.
- 1 teknik proje: Model kurmuş, pipeline yazmış, bir şeyi otomatize etmiş olduğun yer.
- 1 görselleştirme / dashboard: Veriyi görsel olarak anlatabileceğini gösteren proje.
Proje konusu nasıl seçilir?
Merak ettiğin bir şeyi seç. Spor verisi, müzik, şehir ulaşımı, ekonomi — ne olursa. Gerçek merak projeyi bitirir; "portföy için yapalım" motivasyonu bitirmez.
Konu seçerken iki filtre işe yarıyor:
- Veriye ulaşabilir misin?Kaggle, TÜİK, data.gov, açık API'lar. Veri yoksa proje başlamadan biter.
- Soru tanımlı mı?"İstanbul trafiğini analiz ettim" değil, "Hangi ilçelerde sabah zirvesi en uzun sürüyor?" sorusu olan proje daha güçlü.
Başlangıç için iyi veri kaynakları: Kaggle datasets, TÜİK açık veri, Türkiye Cumhuriyet Merkez Bankası EVDS, Avrupa Birliği açık veri portalı, GitHub'daki awesome-public-datasets listesi.
GitHub nasıl kullanılır?
GitHub portföyün evi. Ama çoğu kişi GitHub'ı yanlış kullanıyor — ya hiç commit atmıyor ya da "son güncelleme 2 yıl önce" uyarısıyla dolu repo.
Her projenin kendi reposu olsun. İsimlendirme önemli: istanbul-trafik-analizi okunur,proje1 okunmaz.
Bir repo'nun olmazsa olmazları:
- README.md — En kritik dosya. Aşağıda ayrıca anlattım.
- Düzenli klasör yapısı —
data/,notebooks/,src/,reports/ - requirements.txt — Hangi kütüphaneler kullanıldı?
- .gitignore — Büyük veri dosyaları, API anahtarları repoya girmesin.
Ham veri dosyası repoya yükleme. Büyükse Google Drive bağlantısı ver, küçükse sample_data klasörüne koy. Şirket verisi kesinlikle yükleme.
İyi bir README nasıl yazılır?
README, projenin kapı zili. İşe alımcı repoya girdiğinde ilk bunu okur. İyi bir README şu soruları cevaplamalı:
- Problem neydi? — 2-3 cümle, teknik değil iş dili.
- Veri nereden? — Kaynak, boyut, dönem.
- Ne yaptın? — Yöntem, araçlar, adımlar kısaca.
- Ne buldun? — Ana bulgular, sayıyla.
- Nasıl çalıştırılır? — Adım adım kurulum ve çalıştırma.
Görsel ekle: en iyi grafiğini README'ye göm. İlk bakışta bir şey görülsün. Uzun notebook'u açmadan bile projenin özü anlaşılsın.
Jupyter Notebook temizliği
Analizini Jupyter'da yapıyorsan şunu bil: ham notebook portföy değil, çalışma defteri. Portföye giren notebook temizlenmiş olmalı.
Kontrol listesi:
- Her hücrenin bir amacı var ve sırayla akıyor
- Markdown hücrelerle bölümler ayrılmış ve açıklanmış
- Hata veren, yarım kalan hücreler temizlenmiş
- Çıktılar mantıklı — 500 satır veri yazdırmak yerine
.head() - Sonuç hücresi var: "Bu analizden öğrendiklerim şunlardır..."
Kaggle ve diğer platformlar
Kaggle portföyü GitHub ile tamamlar. Notebook'larını Kaggle'da da yayınla — burada topluluk görünürlüğü ve "votes" sistemi var. Başkaları notebook'una oy verirse profil güçlenir.
Kaggle'ın competitions bölümü ayrı bir fırsat. Kazanmak şart değil — bir yarışmaya girip ilk submission'ı atmak bile özgeçmişe yazılabilir bir deneyim. "Kaggle Housing Prices yarışmasında top %30'a girdim" somut bir referans.
Tableau Public ve Power BI Community de görselleştirme odaklı portföy için iyi yerler. Dashboard'larını bu platformlarda paylaş, LinkedIn'e link ekle.
LinkedIn'e nasıl taşınır?
Projeyi bitirince LinkedIn'de bir post yaz. Şablonu şu:
- Hangi soruyu sordum? (1 cümle)
- Ne buldum? (2-3 önemli bulgu, sayıyla)
- En etkileyici grafiği görsele ekle
- GitHub linkini ekle
- Hashtag: #verianalizi #datascience #python
Ayrıca LinkedIn profilindeki "Öne Çıkan" bölümüne GitHub linkini sabit olarak ekle. İşe alımcı profili açtığında ilk göreceği şey olsun.
Yaygın hatalar
- Sadece Titanic ve Iris projesi. Herkes yapıyor. İşe alımcı sıkılmış. Özgün veri bul.
- Sonuç yok.Grafikler var ama "şunu öneririm" yok. Analiz karar destekler — bunu göster.
- Kod temiz değil. Değişken isimleri
df2,x1,temp. İsimlendirme temiz olsun. - README yok. Boş repo. Proje ne hakkında? Kimse açıp bakmaz.
- Yıllar önce yapılmış, güncellenmemiş.GitHub'da son commit tarihi görünüyor. Aktif görün — eski projeleri zaman zaman güncelle.
Başlamak için minimum gerekli plan
Portföy yoksa bu haftadan başla. Adımlar:
- Kaggle'dan ilgini çeken bir veri seti seç
- Bir soru tanımla — "Bu veride neyi merak ediyorum?"
- Analizi yap, en az 2 görsel çiz
- Notebook'u temizle, README yaz
- GitHub'a yükle, LinkedIn'de paylaş
İlk proje mükemmel olmaz. Olması da gerekmiyor. Var olması gerekiyor. İkinci proje birinciden iyi olur, üçüncü ikinciden. Başlamanın tek yolu başlamak.
Portföy statik bir belge değil, süregelen bir çalışma. Her ay bir şey ekle — küçük olsun, ama ekle.
Portföyünü hazırladıysan veya hazırlarken takıldığın bir yer varsa X'ten yazabilirsin. Bakarım.
Sıradaki yazı: Veri analisti mülakat soruları — teknik ve davranışsal sorulara nasıl hazırlanılır.