Nội dung bài viết
© 2025 AI VIET NAM. All rights reserved.
Tác giả: AI VIET NAM (AI VIET NAM)
Keywords: lasso vs ridge, regularization l1 l2, hồi quy tuyến tính, overfitting, elastic net
Khi học đến Regularization trong các bài toán hồi quy, nhiều bạn thường gặp một câu hỏi quen thuộc:
“Tại sao lại có L1 và L2? Hai cái này khác gì nhau? Và khi nào nên dùng Lasso, khi nào nên dùng Ridge?”
Thắc mắc này rất phổ biến vì Regularization nằm ở giao điểm giữa toán tuyến tính, optimization và ML cơ bản — những mảnh ghép xuất hiện nhiều trong Module 4 (Machine Learning), Module 5 (optimization, losses) và kiến thức nền tảng ở Module 1–2 của chương trình AIO.
Mục tiêu chung của regularization:
Cả Lasso và Ridge đều thêm một thành phần phạt (penalty) vào hàm mất mát của Linear Regression.
Nhưng hai kỹ thuật này xử lý trọng số theo cách hoàn toàn khác nhau.
Hai dạng phạt này tạo ra hình dạng loss landscape khác nhau → dẫn tới hành vi tối ưu hóa khác nhau.
Đây là sự khác biệt quan trọng nhất:
Lasso (L1) có xu hướng đẩy nhiều trọng số về đúng 0
→ mô hình tự động loại bỏ các đặc trưng không quan trọng
→ tạo ra mô hình thưa (sparse)
Ridge (L2) thu nhỏ trọng số nhưng không bao giờ đưa chúng về 0
→ giữ lại toàn bộ đặc trưng
→ phù hợp khi bạn tin rằng mọi feature đều có đóng góp
Trong ngôn ngữ ETL & phân tích dữ liệu (Module 3), Lasso giống như bước Feature Selection tự nhiên.
Lasso hiệu quả khi:
Ridge phù hợp khi:
Những khái niệm này liên quan trực tiếp đến tối ưu hóa trong Module 5.
| Tiêu chí | Lasso (L1) | Ridge (L2) |
|---|---|---|
| Loại bỏ đặc trưng | Có | Không |
| Ổn định khi feature tương quan cao | Thấp hơn | Cao |
| Mô hình thu được | Thưa (sparse) | Đầy đủ (dense) |
| Khả năng giải thích | Cao | Trung bình |
| Hiệu quả với dữ liệu nhiều cột dư | Rất tốt | Tốt nếu không dư thừa |
Bạn dự đoán giá nhà với 200 feature lấy từ nhiều nguồn → nhiều feature dư thừa.
Ví dụ dữ liệu khoa học hoặc sensor:
Khi làm thực tế:
Regularization là nền tảng để hiểu cách mô hình ML (Module 4) và DL (Module 7) chống overfitting.
Bạn có thể thử:
Những thử nghiệm nhỏ này giúp bạn hiểu rõ bản chất của regularization tốt hơn mọi công thức.
Q: Lasso có luôn tốt hơn vì chọn được đặc trưng không?
A: Không. Nếu feature tương quan mạnh, Lasso có thể chọn “ngẫu nhiên một trong số chúng”, khiến mô hình kém ổn định.
Q: Ridge có loại bỏ nhiễu được không?
A: Ridge giảm độ lớn trọng số, nhưng không đưa chúng về 0 → không loại bỏ nhiễu hoàn toàn.
Q: Elastic Net là gì?
A: Là sự kết hợp giữa L1 và L2, tận dụng ưu điểm của cả hai.
Q: Khi feature nhiều hơn mẫu (p >> n), nên dùng gì?
A: Lasso thường hiệu quả hơn Ridge.
Q: Regularization có làm mô hình yếu đi không?
A: Với dữ liệu thật, regularization giúp mô hình mạnh hơn nhờ giảm overfitting.
Q1. Con số 0 thì học nổi không?
Ans: Chỉ cần bạn có thời gian học. Điều quan trọng nhất không phải giỏi hay không, mà là có học đều mỗi ngày. Kiến thức – tài liệu – môi trường đã có team lo. Nếu bạn không có thời gian thì nên cân nhắc.
Q2. Ai dạy AIO?
Ans: Đội admin dạy toàn bộ. Admin trực tiếp hướng dẫn và hỗ trợ mọi câu hỏi của bạn trong suốt quá trình học.
Q3. Admin có “xịn” không?
Ans: Admin đều là người làm nghề thật, mỗi người một cách dạy. Quan trọng là bạn cảm thấy hợp cách truyền đạt. Admin không dám nói xịn, chỉ dạy bằng hết sức.
Q4. AIO có gì khác những nơi khác?
Ans: AIO không phải trung tâm. Đây là dự án học tập cộng đồng, được cải tiến qua từng khóa. Tinh thần của AIO: Cùng nhau học – cùng nhau khổ – cùng nhau lớn. Nếu hợp tinh thần đó, bạn sẽ thấy phù hợp.