Bimbingan Skripsi Tesis Disertasi Python | Machine Learning Natural Language Processing Python
Yang akan Anda pelajari
-
Cara mengubah teks menjadi vektor menggunakan CountVectorizer, TF-IDF, word2vec, dan GloVe
-
Bagaimana menerapkan sistem pencarian dokumen / search engine / similarity search / vector similarity
-
Model probabilitas, model bahasa, dan model Markov (prasyarat untuk Transformers, BERT, dan GPT-3)
-
Cara mengimplementasikan algoritma dekripsi cipher menggunakan algoritma genetika dan pemodelan bahasa
-
Bagaimana menerapkan deteksi spam
-
Bagaimana menerapkan analisis sentimen
-
Cara menerapkan pemintal artikel
-
Bagaimana menerapkan peringkasan teks
-
Bagaimana menerapkan pengindeksan semantik laten
-
Bagaimana menerapkan pemodelan topik dengan LDA, NMF, dan SVD
-
Pembelajaran mesin (Naif Bayes, Regresi Logistik, PCA, SVD, Alokasi Dirichlet Laten)
-
Pembelajaran mendalam (ANN, CNN, RNN, LSTM, GRU) (prasyarat yang lebih penting untuk BERT dan GPT-3)
-
Transformator Wajah (khusus VIP)
-
Cara menggunakan Python, Scikit-Learn, Tensorflow, untuk NLP
-
Preprocessing teks, tokenization, stopwords, lemmatization, dan stemming
-
Penandaan part-of-speech (POS) dan pengenalan entitas bernama (NER)
Persyaratan
-
Instal Python, gratis!
-
Keterampilan pemrograman Python
-
Opsional: Jika Anda ingin memahami bagian matematika, aljabar linier dan probabilitas sangat membantu
Deskripsi
Selamat datang di Pembelajaran Mesin: Pemrosesan Bahasa Alami dengan Python.
Ini adalah kursus 4-in-1 besar-besaran yang meliputi:
1) Model vektor dan metode preprocessing teks
2) Model probabilitas dan model Markov
3) Metode pembelajaran mesin
4) Pembelajaran mendalam dan metode jaringan saraf
Di bagian 1, yang mencakup model vektor dan metode pemrosesan awal teks , Anda akan mempelajari mengapa vektor sangat penting dalam ilmu data dan kecerdasan buatan . Anda akan belajar tentang berbagai teknik untuk mengonversi teks menjadi vektor, seperti CountVectorizer dan TF-IDF, dan Anda akan mempelajari dasar-dasar metode penyisipan saraf seperti word2vec, dan GloVe.
Anda kemudian akan menerapkan apa yang Anda pelajari untuk berbagai tugas, seperti:
- Klasifikasi teks
- Pengambilan dokumen / mesin pencari
- Peringkasan teks
Sepanjang kursus, Anda juga akan mempelajari langkah-langkah preprocessing teks penting, seperti tokenization, stemming, dan lemmatization.
Anda akan diperkenalkan secara singkat pada tugas-tugas NLP klasik seperti penandaan bagian-bagian ucapan.
Di bagian 2, yang mencakup model probabilitas dan model Markov , Anda akan mempelajari salah satu model terpenting dalam semua ilmu data dan pembelajaran mesin dalam 100 tahun terakhir. Ini telah diterapkan di banyak bidang selain NLP, seperti keuangan , bioinformatika , dan pembelajaran penguatan .
Dalam kursus ini, Anda akan melihat bagaimana model probabilitas tersebut dapat digunakan dalam berbagai cara, seperti:
- Membangun pengklasifikasi teks
- Pemintalan artikel
- Pembuatan teks (menghasilkan puisi)
Yang penting, metode ini merupakan prasyarat penting untuk memahami cara kerja model Transformer (perhatian) terbaru seperti BERT dan GPT-3 . Secara khusus, kita akan mempelajari tentang 2 tugas penting yang sesuai dengan tujuan pra-pelatihan untuk BERT dan GPT.
Di bagian 3, yang mencakup metode pembelajaran mesin, Anda akan belajar lebih banyak tentang tugas NLP klasik, seperti:
- Deteksi spam
- Analisis sentimen
- Analisis semantik laten (juga dikenal sebagai pengindeksan semantik laten)
- Pemodelan topik
Bagian ini akan berfokus pada aplikasi daripada berfokus pada teori, yang berarti bahwa alih-alih menghabiskan sebagian besar upaya kami untuk mempelajari detail berbagai algoritme ML, Anda akan berfokus pada bagaimana algoritme tersebut dapat diterapkan pada tugas di atas.
Tentu saja, Anda masih perlu mempelajari sesuatu tentang algoritme tersebut untuk memahami apa yang terjadi. Algoritma berikut akan digunakan:
- Naif Bayes
- Regresi logistik
- Analisis Komponen Utama (PCA) / Dekomposisi Nilai Singular (SVD)
- Alokasi Dirichlet Laten (LDA)
Ini bukan sembarang algoritma pembelajaran mesin/kecerdasan buatan, melainkan yang telah menjadi pokok dalam NLP dan dengan demikian merupakan bagian penting dari kursus NLP mana pun.
Di bagian 4, yang mencakup metode pembelajaran mendalam , Anda akan belajar tentang arsitektur jaringan neural modern yang dapat diterapkan untuk menyelesaikan tugas NLP. Berkat kekuatan dan fleksibilitasnya yang luar biasa, jaringan saraf dapat digunakan untuk menyelesaikan tugas apa pun yang disebutkan di atas dalam kursus.
Anda akan belajar tentang:
- Jaringan Syaraf Tiruan Feedforward (JST)
- Penyematan
- Jaringan Syaraf Konvolusional (CNN)
- Jaringan Syaraf Berulang (RNN)
Studi tentang RNN akan melibatkan arsitektur modern seperti LSTM dan GRU yang telah banyak digunakan oleh Google, Amazon, Apple, Facebook, dll. Untuk tugas-tugas sulit seperti terjemahan bahasa, pengenalan ucapan, dan teks ke ucapan.
Jelas, karena Transformers terbaru (seperti BERT dan GPT-3 ) adalah contoh jaringan saraf yang dalam, bagian kursus ini merupakan prasyarat penting untuk memahami Transformers.
FITUR UNIK
- Setiap baris kode dijelaskan secara detail
- Tidak ada waktu yang terbuang untuk “mengetik” pada keyboard seperti kursus lainnya
- Tidak takut dengan matematika tingkat universitas – dapatkan detail penting tentang algoritme yang tidak diberikan oleh kursus lain
Untuk siapa kursus ini:
- Siapa pun yang ingin belajar pemrosesan bahasa alami (NLP)
- Siapa pun yang tertarik dengan kecerdasan buatan, pembelajaran mesin, pembelajaran mendalam, atau ilmu data
- Siapa pun yang ingin melampaui kursus khusus pemula