ใน ep.4 นี้เราจะมาลองสร้างชุดข้อมูลปัญหาผิวพรรณของเราขึ้นมาเองแบบง่าย ๆ ด้วย Google Images Search หรือถ้าใครมี Domain Expertise เชี่ยวชาญทางด้านไหน เช่น การแพทย์ การผลิต การตลาด การเกษตร การเงิน แฟชั่น etc. ก็สามารถนำมาใช้ได้ ไม่จำกัด แล้วสร้างโมเดล Deep Learning ด้วย Python ให้เรียนรู้จากรูปในอินเตอร์เน็ต ดูว่าความแม่นยำจะเป็นอย่างไร
เรามาเริ่มกันเลยดีกว่า
ใน ep.4 นี้เราจะมาลองสร้าง Dataset ของตัวเอง เพื่อเทรนโมเดล เราเลือกที่จะสร้างชุดข้อมูลปัญหาผิวหน้า ที่พบบ่อยในคนทั่วไป
- Acne สิว
- Melasma ฝ้า
- Freckle กระ
เราเข้าไปที่ Google Images แล้ว Search รูปที่ต้องการ เลือกเป็น Size ใหญ่ แล้วกดปุ่ม F12 แล้วก็อปปี้โค้ดด้านล่างไปแปะ แล้วกด Enter
urls = Array.from(document.querySelectorAll('.rg_di .rg_meta')).map(el=>JSON.parse(el.textContent).ou);
window.open('data:text/csv;charset=utf-8,' + escape(urls.join('\n')));
เราจะได้ไฟล์ที่เก็บรายชื่อ URL ของรูปทั้งหมดในผลการค้นหา ให้เรา Save และนำมา Upload ไว้ใน Folder data/skin
0. Magic Commands¶
%reload_ext autoreload
%autoreload 2
%matplotlib inline
1. Import Library¶
from fastai import *
from fastai.vision import *
from fastai.metrics import accuracy
2. ข้อมูล¶
ให้เราใส่ชื่อไฟล์แ และชื่อ Folder ให้ถูกต้องตาม Category ที่เราจะทำ Classifier ในที่นี้ เรามี 3 หมวดหมู่ คือ สิว acne, ฝ้า melasma, กระ freckle
folder = 'acne'
file = 'urls_acne.txt'
folder = 'freckle'
file = 'urls_freckle.txt'
folder = 'melasma'
file = 'urls_melasma.txt'
สั่งให้สร้าง Folder และ Download รูป ตาม URL ที่อยู่ในไฟล์ จำนวน max_pics = 500 รูป ไปใส่ไว้ Folder dest
หมายเหตุ ให้เรา 1. เลือก Category ในช่องด้านบน แล้วกด Run แล้วจึง 2. มาเลือกช่องด่านล่าง สั่ง Run เพื่อ Download
path = Path('data/skin')
download_path = path/'downloads'
dest = download_path/folder
dest.mkdir(parents=True, exist_ok=True)
download_images(path/file, dest, max_pics=500, max_workers=8)
วนลูปตรวจสอบไฟล์ เนื่องจาก Google Image บอกว่ามีรูปนี้อยู่ แต่จริง ๆ รูปอาจจะไม่ได้อยู่แล้ว บางทีเราจะได้ไฟล์ขยะมาแทน delete=True คือถ้าเจอไฟล์ขยะให้ลบทิ้ง และให้ย่อรูปให้มีขนาดไม่เกิน max_size ทั้งกว้างและยาว Pixel
classes = ['acne', 'freckle', 'melasma']
for c in classes:
print(c)
verify_images(download_path/c, delete=True, max_size=480)
3. เตรียมข้อมูล¶
ใน ep ก่อน ๆ เราใช้ขนาดรูปแค่ 224, 299, 28 Pixel เท่านั้น แต่ในเคสนี้ ถ้ารูปเล็กเกินไปจะทำให้เห็นแต่รูปร่างรวม ๆ ไม่เห็นผิว ไม่เห็นความผิดปกติที่เกิดขึ้นบนผิว เราจึงปรับความละเอียดของรูปที่ใช้เทรน เพิ่มเป็น 400 การปรับจูนพารามิเตอร์ของโมเดลแบบนี้ เรียกว่า Hyperparameter Tuning มีหลายตัวด้วยกัน ซึ่งเราจะอธิบายต่อไป
batchsize = 16
np.random.seed(42)
databunch = ImageDataBunch.from_folder(download_path, train='.',
valid_pct=0.2,
ds_tfms=get_transforms(),
size=400, bs=batchsize).normalize()
# ### อ่านให้จบ ข้อ 8 ก่อน ค่อยย้อนขึ้นมาดูใหม่
# databunch = ImageDataBunch.from_csv(path, csv_labels='cleaned.csv',
# valid_pct=0.2,
# ds_tfms=get_transforms(),
# size=400, bs=batchsize).normalize()
สำรวจข้อมูล¶
ลองดูข้อมูล Batch แรก ด้วย show_batch สั่งให้แสดง รูป พร้อม label
เราสามารถรัน cell นี้หลายครั้ง เพื่อเรียกดู batch ต่อ ๆ ไป ได้เรื่อย ๆ เป็นการสำรวจข้อมูล
databunch.classes
databunch.show_batch(rows=2, figsize=(8, 8))
databunch.show_batch(rows=2, figsize=(8, 8))
databunch.classes, databunch.c, len(databunch.train_ds), len(databunch.valid_ds)
คุณภาพของรูปจากอินเตอร์เน็ต¶
จะเห็นได้ว่ารูปที่ดาวน์โหลดมาจาก Google Image คุณภาพค่อนข้างหลากหลาย มีทั้งรูปสต็อก รูปศิลปะ รูปโฆษณา รูปดารา รูปผลิตภัณฑ์ รูปวิชาการ etc. แต่ไม่เป็นไรเราจะลองเทรนโมเดลด้วยรูปเหล่านี้ดู
4. สร้างโมเดล¶
learner = cnn_learner(databunch, models.resnet50,
metrics=accuracy,
callback_fns=ShowGraph).to_fp16()
5. เริ่มต้นเทรนโมเดล¶
เทรนด้วยค่า Default ไป 8 Epoch
learner.fit_one_cycle(8)
เรามา Save Model ที่เราเพิ่งเทรนไปเก็บไว้ก่อน
learner.save('01d-resnet50-1')
โหลดโมเดลที่เรา Save ไว้ ขึ้นมาใหม่ เตรียมเทรนในขึ้นตอนถัดไป (ที่คอมเม้นท์ไว้ เพราะถ้าไม่ได้เปลี่ยนอะไรก็จะได้ไม่ต้องรัน)
# learner.load('01d-resnet50-1')
6. เทรนต่อ¶
unfreeze layer ทุก Layer ให้สามารถเทรนได้ แล้วเทรนต่อทั้งโมเดล
learner.unfreeze()
learner.fit_one_cycle(6, max_lr=slice(3e-6,1e-3))
สำเร็จแล้ว¶
เพียงแค่เวลา 7 นาทีเศษ เราเทรน Model ตามวิธีเดิม ด้วยรูปที่คุณภาพหลายหลาย จำนวนแค่ 500 x 3 = 1,500 รูป
แต่โมเดลสามารถเรียนรู้จากรูปเท่าที่มี แยกแยะ Noise ที่ไม่เกี่ยวข้องออกไป ทำให้เราได้ accuracy ประมาณ 0.83 หรือ ความแม่นยำประมาณ 83%
เรามา Save Model ที่เราเพิ่งเทรนไปเก็บไว้ก่อน
learner.save('01d-resnet50-2')
# learner.load('01d-resnet50-2')
7. ดูผลลัพธ์¶
interpretation = ClassificationInterpretation.from_learner(learner.to_fp32())
โมเดลจำแนกผิวได้ถูกต้อง¶
สั่งให้ plot_top_losses ด้วย largest=False คือ การแสดง record ที่ ค่า loss น้อยที่สุด หรือพูดง่าย ๆ ว่าแสดงรายการที่โมเดลทายถูกอย่างมั่นใจ 9 อันดับแรก โดยมีการแสดง heat map สีแดง ให้ดูด้วยว่า model พิจารณาเน้นจากส่วนไหนของรูปเป็นหลัก เรียกว่า Attention ที่ไว้เราจะอธิบายต่อไป
interpretation.plot_top_losses(9, figsize=(8, 8), largest=False)