Trong thế giới AI đang phát triển như vũ bão, việc OpenAI, “cha đẻ” của ChatGPT, tung ra một thứ gì đó mới luôn là một sự kiện lớn. Nhưng lần này, nó còn hơn cả một sự kiện lớn. Vào ngày 5 tháng 8 năm 2025, họ đã làm một điều mà nhiều người, trong đó có Toàn, đã mong chờ từ rất lâu: phát hành bộ đôi mô hình ngôn ngữ trọng số mở (open-weight) mang tên gpt-oss-120b và gpt-oss-20b. Đây không chỉ là một bản cập nhật thông thường, nó là một cú hích thay đổi cuộc chơi, trao cho chúng ta khả năng chạy một phiên bản “ChatGPT” cực mạnh ngay trên chính máy tính của mình, hoàn toàn offline và miễn phí!
Mục lục
Tại sao điều này lại quan trọng đến vậy? Hãy tưởng tượng bạn có thể phân tích những tài liệu nhạy cảm, viết code, hay tự động hóa các tác vụ phức tạp mà không cần gửi bất kỳ dữ liệu nào lên internet, không cần lo lắng về chi phí API (Giao diện lập trình ứng dụng) mỗi lần sử dụng, và hoàn toàn làm chủ công nghệ. Đó chính là lời hứa mà GPT-OSS mang lại. Trong bài viết này, Toàn sẽ cùng các bạn “mổ xẻ” mọi thứ về bộ đôi AI đầy tiềm năng này. Chúng ta sẽ đi từ tổng quan nhất – GPT-OSS là gì, mạnh yếu ra sao so với các đối thủ – cho đến phần hướng dẫn chi tiết nhất: làm thế nào để cài đặt và “thuần hóa” nó trên chính chiếc PC hay laptop của bạn. Dù bạn là người dùng phổ thông tò mò về AI hay là một lập trình viên muốn tích hợp công nghệ đỉnh cao, bài viết này đều dành cho bạn.
I. GPT-OSS LÀ GÌ VÀ TẠI SAO NÓ LẠI LÀ MỘT “BIG DEAL”?
Trước khi đi vào hướng dẫn kỹ thuật, chúng ta cần hiểu rõ bản chất và tầm quan trọng của sự kiện này. Đây không chỉ đơn thuần là việc OpenAI cho không chúng ta một món đồ chơi mới, nó là một sự thay đổi chiến lược mang tính bước ngoặt.
1. Sự trở lại của OpenAI với thế giới mở
Nếu bạn đã theo dõi OpenAI từ những ngày đầu, bạn sẽ biết họ khởi đầu với sứ mệnh “mở” nhưng sau đó đã chuyển sang chiến lược nguồn đóng với GPT-3 và GPT-4, gây ra không ít tranh cãi. Việc phát hành GPT-OSS đánh dấu sự trở lại ngoạn mục của họ với cộng đồng. Tuy nhiên, chúng ta cần làm rõ một thuật ngữ quan trọng. GPT-OSS là mô hình trọng số mở (open-weight), không phải nguồn mở (open-source) hoàn toàn.
- Trọng số mở (Open-weight): OpenAI công khai các tham số (trọng số) đã được huấn luyện của mô hình. Điều này cho phép chúng ta tải về, chạy, và tinh chỉnh (fine-tune) mô hình cho các mục đích riêng. Đây là những gì GPT-OSS, Llama của Meta hay Mistral cung cấp.
- Nguồn mở (Open-source): Ngoài trọng số, nhà phát triển sẽ công bố cả bộ dữ liệu huấn luyện và mã nguồn đã dùng để tạo ra mô hình. Đây là mức độ “mở” cao nhất nhưng rất hiếm thấy ở các mô hình hàng đầu.
Dù chỉ là trọng số mở, đây vẫn là một động thái cực kỳ ý nghĩa. Quan trọng hơn, họ phát hành GPT-OSS dưới giấy phép Apache 2.0 – một giấy phép rất thông thoáng, cho phép mọi người, kể cả các doanh nghiệp, được tự do sử dụng, sửa đổi và thương mại hóa các sản phẩm xây dựng trên nền tảng này. Đây là một đòn đáp trả trực diện với các đối thủ như Meta và là một món quà tuyệt vời cho cộng đồng phát triển.
2. Gia đình gpt-oss: “Gã khổng lồ” và “Chàng linh hoạt”
OpenAI không chỉ tung ra một, mà là hai mô hình được thiết kế để bổ trợ cho nhau, phục vụ những nhu cầu khác nhau:
- gpt-oss-120b: Được mệnh danh là cỗ máy suy luận (reasoning powerhouse). Đây là phiên bản khổng lồ, với sức mạnh được cho là gần tương đương với mô hình thương mại o4-mini của chính OpenAI. Nó được thiết kế cho các tác vụ đòi hỏi logic phức tạp, phân tích sâu và thường yêu cầu phần cứng cấp trung tâm dữ liệu (data center) để hoạt động.
- gpt-oss-20b: Được mô tả là mô hình nhẹ nhàng và thông thạo công cụ (tool-savvy and lightweight). Đây là phiên bản tối ưu cho người dùng cá nhân. Sức mạnh của nó tương đương o3-mini, nhưng điểm vàng của nó là khả năng chạy mượt mà trên phần cứng tiêu dùng cao cấp, ví dụ như một chiếc PC chỉ với 16GB VRAM (Video RAM, bộ nhớ đồ họa). Đây chính là mô hình mà hầu hết chúng ta sẽ nhắm đến để trải nghiệm.
Cách tiếp cận hai cấp độ này cực kỳ thông minh. Nó vừa giúp OpenAI khẳng định vị thế dẫn đầu về công nghệ với phiên bản 120b, vừa đảm bảo sự thâm nhập sâu rộng vào cộng đồng với phiên bản 20b, từ các tập đoàn lớn đến những nhà nghiên cứu độc lập và người dùng cá nhân như chúng ta.
II. BÊN TRONG “BỘ NÃO” CỦA GPT-OSS: ĐIỀU GÌ LÀM NÓ VỪA MẠNH VỪA NHẸ?
Làm thế nào mà một mô hình có tới 117 tỷ tham số như gpt-oss-120b lại có thể hoạt động hiệu quả, hay làm sao gpt-oss-20b có thể “nhét” vừa vào một chiếc PC? Câu trả lời nằm ở một loạt các lựa chọn kiến trúc và công nghệ thiên tài.
1. Bí mật số 1: Kiến trúc Mixture-of-Experts (MoE)
Đây là công nghệ cốt lõi. Thay vì kích hoạt toàn bộ mạng nơ-ron khổng lồ cho mỗi từ (token – đơn vị xử lý văn bản) bạn nhập vào như các mô hình truyền thống, Mixture-of-Experts (MoE) hoạt động thông minh hơn. Nó sử dụng một mạng điều phối (gating network) để lựa chọn và chỉ kích hoạt một nhóm nhỏ các chuyên gia (experts) phù hợp nhất để xử lý yêu cầu đó. Hãy hình dung nó như một tập đoàn lớn: thay vì triệu tập toàn bộ nhân viên cho mọi cuộc họp, bạn chỉ cần gọi đúng phòng ban có chuyên môn liên quan. Điều này tạo ra sự khác biệt khổng lồ giữa tổng số tham số (kiến thức của mô hình) và tham số hoạt động (chi phí tính toán thực tế).
TÍNH NĂNG | GPT-OSS-120B | GPT-OSS-20B |
---|---|---|
Tổng số tham số | 117 tỷ (Kiến thức cực lớn) | 21 tỷ (Kiến thức lớn) |
Tham số hoạt động / token | Chỉ 5.1 tỷ (Siêu hiệu quả) | Chỉ 3.6 tỷ (Cực kỳ hiệu quả) |
Số lớp MoE | 36 lớp | 24 lớp |
Tổng số chuyên gia / lớp | 128 chuyên gia | 32 chuyên gia |
Chuyên gia hoạt động / token | 4 chuyên gia | 4 chuyên gia |
Độ dài ngữ cảnh tối đa | 128,000 tokens | 128,000 tokens |
Nhìn vào bảng trên, bạn có thể thấy sự kỳ diệu của MoE. Dù có kho kiến thức khổng lồ (117 tỷ tham số), gpt-oss-120b chỉ cần sử dụng năng lực tính toán tương đương một mô hình 5.1 tỷ tham số cho mỗi token. Đây chính là yếu tố then chốt giúp nó vừa mạnh mẽ lại vừa hiệu quả.
2. Bí mật số 2: Các công nghệ tối ưu hiệu suất
Bên cạnh MoE, GPT-OSS còn được trang bị hàng loạt “vũ khí” tân tiến khác:
Lượng tử hóa MXFP4: Chìa khóa để “nhét” mô hình vào VRAM
Đây có lẽ là điểm đột phá lớn nhất về mặt tiếp cận. MXFP4 (Microscaling 4-bit Floating Point) là một định dạng số 4-bit được sử dụng ngay từ khi huấn luyện mô hình. Hãy tưởng tượng nó như một kỹ thuật nén ảnh thông minh, giúp giảm kích thước file (dung lượng VRAM cần thiết) xuống nhiều lần mà vẫn giữ được chất lượng hình ảnh (độ chính xác của mô hình) ở mức rất cao. Chính nhờ MXFP4 mà gpt-oss-20b có thể nằm gọn trong 16GB VRAM, một con số không tưởng trước đây.
Grouped-Query Attention (GQA): Tăng tốc độ suy luận
Attention là cơ chế giúp AI “tập trung” vào những phần quan trọng của văn bản. GQA là một phiên bản tối ưu của cơ chế này. Nó giúp giảm đáng kể lượng dữ liệu cần được trao đổi với bộ nhớ của GPU (Bộ xử lý đồ họa) – một trong những nút thắt cổ chai lớn nhất khi chạy AI. Kết quả là mô hình có thể suy luận và trả lời bạn nhanh hơn đáng kể.
Rotary Positional Embeddings (RoPE): Hiểu ngữ cảnh dài
Làm sao mô hình có thể hiểu được một tài liệu dài hàng trăm trang (tương đương 128,000 token)? Câu trả lời là RoPE. Thay vì chỉ thêm một “tag” vị trí cho mỗi từ, RoPE mã hóa thông tin vị trí một cách tương đối bằng phép quay vector. Điều này giúp mô hình hiểu được mối quan hệ giữa các từ ở khoảng cách xa nhau một cách tự nhiên và hiệu quả, giúp nó không bị “lạc đề” khi xử lý các ngữ cảnh dài.
III. SỨC MẠNH THỰC TẾ CỦA GPT-OSS: ĐIỂM SÁNG VÀ GÓC KHUẤT
Thông số kỹ thuật rất ấn tượng, nhưng khả năng thực tế của GPT-OSS ra sao? Toàn đã tổng hợp cả kết quả từ OpenAI và phản hồi từ cộng đồng để cho các bạn một cái nhìn toàn cảnh.
1. Những lĩnh vực gpt-oss tỏa sáng rực rỡ
Dựa trên các bài kiểm tra (benchmark – bài kiểm tra hiệu năng) chính thức, GPT-OSS thể hiện sức mạnh vượt trội ở các lĩnh vực đòi hỏi logic và cấu trúc:
- Suy luận & Lập trình: Trong các bài test về suy luận logic (GPQA) và giải thuật toán (Codeforces), gpt-oss-120b đạt hiệu suất ngang ngửa hoặc thậm chí vượt qua cả o4-mini. Đây là một cỗ máy code và giải quyết vấn đề thực thụ. Xem thêm về chủ đề này tại: so sánh khả năng lập trình của các mô hình AI.
- Toán học & Khoa học: Đặc biệt khi được phép sử dụng công cụ (như một máy tính Python), gpt-oss-120b đạt điểm số gần như hoàn hảo trong các bài thi toán (AIME), cho thấy khả năng vận dụng công cụ để giải quyết vấn đề một cách xuất sắc.
- Y tế: Trong benchmark HealthBench, gpt-oss-120b còn cho thấy khả năng trả lời các truy vấn về sức khỏe tốt hơn cả o4-mini.
BENCHMARK (LĨNH VỰC) | GPT-OSS-120B | O4-MINI | GPT-OSS-20B |
---|---|---|---|
GPQA (Suy luận Khoa học) | 80.1% | 81.4% | 71.5% |
AIME 2024 (Toán, có công cụ) | 96.6% | 98.7% | 96.0% |
HealthBench (Y tế) | 57.6% | 50.1% | 42.5% |
MMLU (Kiến thức chung) | 90.0% | 93.0% | 85.3% |
Kết luận nhanh: GPT-OSS là một “chuyên gia logic”, một trợ lý phân tích và lập trình viên xuất sắc. Nó không được tạo ra để trở thành một nhà văn hay một người bạn tâm giao.
2. Những “khuyết điểm” của gpt-oss: không phải lúc nào cũng màu hồng
Tuy nhiên, khi cộng đồng bắt tay vào “vọc vạch”, một số sắc thái khác đã xuất hiện:
- Vấn đề “dàn dựng” benchmark: Nhiều người chỉ ra rằng điểm số Toán học cao ngất ngưởng là do mô hình được phép dùng phao là một trình thông dịch Python. Điều này không sai, nhưng nó cho thấy sức mạnh thực sự của GPT-OSS không nằm ở khả năng tính nhẩm thuần túy, mà là ở khả năng hành động như một tác tử (AI Agent) – biết khi nào cần dùng công cụ nào để giải quyết vấn đề.
- Khá “nhạt” trong viết lách sáng tạo: Đây là điểm yếu bị phàn nàn nhiều nhất. Khi được yêu cầu viết truyện, làm thơ, hay nhập vai, GPT-OSS tỏ ra rất máy móc, thiếu tự nhiên và nhạt nhẽo so với các mô hình như Llama 4 hay Claude 3.5 Sonnet. Nếu bạn cần một AI để viết nội dung marketing, có lẽ nên tham khảo bài viết mô hình AI nào viết tốt nhất.
- Bị kiểm duyệt quá mức (Safety-Maxxing): OpenAI đã tinh chỉnh an toàn cho mô hình này rất kỹ. Kết quả là đôi khi nó từ chối trả lời những yêu cầu hoàn toàn vô hại chỉ vì chứa một từ khóa nhạy cảm. Điều này có thể gây khó chịu cho những người dùng muốn khám phá giới hạn của mô hình.
3. Đặt lên bàn cân: Khi nào nên chọn gpt-oss?
Vậy, chúng ta nên dùng GPT-OSS cho việc gì? Toàn sẽ tóm tắt lại để bạn dễ dàng quyết định.
- NÊN CHỌN GPT-OSS KHI:
- Công việc của bạn liên quan nhiều đến logic, lập trình, phân tích dữ liệu, toán học, khoa học.
- Bạn cần xây dựng một AI Agent tự động hóa các quy trình phức tạp (ví dụ: tự động duyệt web, phân tích file, chạy code).
- Quyền riêng tư là ưu tiên hàng đầu, bạn không muốn dữ liệu của mình rời khỏi máy tính.
- Bạn muốn một giải pháp mạnh mẽ mà không tốn chi phí API.
- NÊN TÌM MÔ HÌNH KHÁC KHI:
- Bạn cần viết lách sáng tạo, viết nội dung marketing, email, kịch bản.
- Bạn cần một AI để trò chuyện tự nhiên, nhập vai hoặc làm bạn đồng hành.
- Bạn cần xử lý đa phương thức (phân tích hình ảnh, âm thanh).
IV. HƯỚNG DẪN CÀI ĐẶT GPT-OSS TRÊN MÁY TÍNH CỦA BẠN (TỪ DỄ ĐẾN KHÓ)
Đây chắc hẳn là phần được mong chờ nhất. Toàn sẽ hướng dẫn các bạn cách cài đặt gpt-oss-20b, phiên bản thân thiện nhất với người dùng cá nhân. Hãy nhớ, phiên bản 120b gần như không thể chạy trên máy tính thông thường.
1. Chuẩn bị: Yêu cầu phần cứng
Đây là yêu cầu tối quan trọng. Việc chạy một mô hình AI lớn cục bộ đòi hỏi sức mạnh xử lý đồ họa (GPU) đáng kể. Cụ thể hơn là bộ nhớ của GPU (VRAM).
- Yêu cầu tối thiểu cho gpt-oss-20b: Bạn cần một GPU có ít nhất 16GB VRAM.
- Khuyến nghị của Toàn: Để có trải nghiệm mượt mà, bạn nên có một GPU với 24GB VRAM như NVIDIA RTX 3090, RTX 4090, hoặc các dòng card chuyên dụng. Người dùng Apple Silicon (chip M series) cũng có thể chạy được nếu máy có 32GB RAM (Bộ nhớ truy cập ngẫu nhiên) hợp nhất trở lên.
Lưu ý: VRAM và RAM là hai thông số khác nhau.
Nếu phần cứng của bạn không đáp ứng, đừng lo, bạn vẫn có thể trải nghiệm các mô hình này qua các dịch vụ cloud, nhưng bài viết này tập trung vào việc chạy cục bộ.
2. Cách dễ nhất (cho người dùng phổ thông): Dùng LM Studio hoặc Ollama
Đây là phương pháp Toàn khuyến khích tất cả mọi người nên thử. Ollama là một công cụ tuyệt vời giúp việc tải và chạy các mô hình ngôn ngữ trở nên đơn giản như gõ một dòng lệnh. Nó hỗ trợ cả Windows, macOS và Linux.
BƯỚC 1: Tải và cài đặt LM Studio (giao diện trực quan) hoặc Ollama (giao diện dòng lệnh trong Terminal) – Chọn 1 trong 2 công cụ
Truy cập trang chủ của các công cụ tại đây:
Tải về trình cài đặt phù hợp với hệ điều hành của bạn. Quá trình cài đặt rất đơn giản, chỉ cần nhấn “Next” vài lần là xong.
![[nguyenthieutoan.com] Giao diện chính của LM Studio sau khi cài đặt](https://nguyenthieutoan.com/wp-content/uploads/2025/08/nguyenthieutoan.com-huong-dan-cai-dat-ai-tren-may-tinh-ca-nhan-2-1.webp)
BƯỚC 2: Tải và chạy GPT-OSS
Ở bước này, bạn cần cực kỳ lưu ý: Phải đảm bảo là máy tính của bạn đủ mạnh để có thể chạy được mô hình AI phù hợp. Trong trường hợp máy tính không đủ mạnh mà người dùng vẫn cố ý tải và cài đặt thì sẽ có thể gây ra giật, lag, treo máy, thậm chí khiến máy của bạn nóng lên.
Nhưng bạn yên tâm, luôn có các mô hình khác phù hợp với thông số của máy tính của bạn. Trong trường hợp gpt-oss yêu cầu thông số cao hơn những gì mà bạn có, bạn có thể sử dụng các mô hình nhẹ hơn, cụ thể như sau:
- Qwen3 8B: Phù hợp với máy tính có RAM từ 16GB trở lên, GPU rời từ 6–8GB VRAM, hoặc dùng định lượng GGUF Q4/Q5 để chạy trên GPU tích hợp. Thích hợp cho các tác vụ như viết nội dung, hỗ trợ lập trình, phân tích văn bản.
- Mistral Nemo Instruct 2407: Là mô hình 7B được huấn luyện chuyên cho nhiệm vụ hướng dẫn và suy luận. Phù hợp với máy có RAM ≥ 16GB, GPU rời ≥ 6GB VRAM. Có thể dùng định lượng GGUF để tối ưu hiệu suất.
- Qwen3 4B: Phù hợp với máy tính có RAM ≥ 8GB, không cần GPU rời. Có thể chạy mượt trên laptop phổ thông như Surface Laptop 7 X Plus. Thích hợp cho chatbot, hỗ trợ học tập, trả lời câu hỏi đơn giản.
- Phi-4 Mini Reasoning (3.8B): Phù hợp với hầu hết laptop hiện nay, RAM ≥ 8GB, không cần GPU rời. Tối ưu cho các tác vụ suy luận nhẹ, trả lời câu hỏi, hỗ trợ viết.
- LFM2 1.2B: Mô hình siêu nhẹ, phù hợp với máy tính có RAM ≥ 4GB, chạy tốt trên cả máy tính bảng hoặc thiết bị ARM. Thích hợp cho chatbot đơn giản và phản hồi nhanh.
Còn trong trường hợp máy của bạn đủ mạnh, hãy tự tin cài đặt và trải nghiệm gpt-oss-20b.
Trên LM Studio, vào giao diện Model và tìm kiếm gpt-oss 20B, bấm Download và trải nghiệm.
Trên Ollama, hãy mở trình dòng lệnh của bạn (Terminal trên macOS/Linux, hoặc Command Prompt/PowerShell trên Windows) và gõ chính xác dòng lệnh sau rồi nhấn Enter:
ollama run gpt-oss:20b
Lần đầu tiên chạy, Ollama sẽ tự động tải về mô hình gpt-oss-20b (kích thước khoảng 11-12GB, tùy phiên bản lượng tử hóa). Quá trình này có thể mất một lúc tùy vào tốc độ mạng của bạn. Khi tải xong, bạn sẽ thấy dấu nhắc lệnh thay đổi và bạn đã có thể bắt đầu trò chuyện với AI ngay trong cửa sổ terminal!
3. Cách cho lập trình viên (Nâng cao): Tích hợp vào ứng dụng
Nếu bạn là một developer và muốn tích hợp sức mạnh của GPT-OSS vào các dự án của mình, có hai cách phổ biến:
Tạo API endpoint với vLLM
vLLM là một thư viện giúp host các mô hình AI và tạo ra một API endpoint (điểm cuối API) tương thích với API của OpenAI. Điều này cho phép bạn sử dụng các đoạn code hiện có của mình mà chỉ cần thay đổi địa chỉ URL.
Cài đặt: pip install vllm -U --extra-index-url https://test.pypi.org/simple/ vllm-gptoss
Khởi chạy server: python -m vllm.entrypoints.openai.api_server --model openai/gpt-oss-20b
Sau khi chạy lệnh này, bạn sẽ có một API server chạy tại http://localhost:8000
, sẵn sàng nhận yêu cầu. Bạn có thể tìm hiểu thêm về AI API là gì trong một bài viết khác của Toàn.
Tích hợp trực tiếp với Hugging Face Transformers
Đây là cách kiểm soát sâu nhất, cho phép bạn tải mô hình trực tiếp vào mã Python của mình thông qua thư viện Hugging Face Transformers.
Cài đặt: pip install transformers torch accelerate
Sau đó, bạn có thể sử dụng pipeline của Transformers để dễ dàng tạo ra các phản hồi từ mô hình. Cách này đòi hỏi bạn phải hiểu rõ hơn về cách hoạt động của thư viện nhưng mang lại sự linh hoạt tối đa.
Chú ý: Dù dùng cách nào, hãy nhớ rằng GPT-OSS hoạt động tốt nhất khi được cung cấp các chỉ dẫn rõ ràng, có cấu trúc theo một định dạng đặc biệt gọi là Harmony. Các công cụ như Ollama hay pipeline của Hugging Face thường sẽ tự động xử lý việc này cho bạn.
V. TỔNG KẾT VÀ TRIỂN VỌNG TƯƠNG LAI
Sự ra đời của GPT-OSS không chỉ là việc bổ sung thêm hai mô hình vào hệ sinh thái AI. Nó là một tuyên bố mạnh mẽ về việc dân chủ hóa sức mạnh AI. Nó thiết lập một tiêu chuẩn mới cho các mô hình trọng số mở, đặc biệt là về khả năng suy luận logic và hiệu quả tính toán. Có thể nói, cuộc đua AI giờ đây đã có thêm một tay đua đáng gờm, và người hưởng lợi cuối cùng chính là cộng đồng chúng ta.
GPT-OSS không phải là một mô hình hoàn hảo cho mọi tác vụ. Nó có điểm mạnh, điểm yếu rõ ràng. Nhưng nó là một công cụ chuyên biệt cực kỳ mạnh mẽ, một “chuyên gia logic” mà giờ đây bạn có thể sở hữu và vận hành ngay tại nhà. Việc nó được tối ưu cho các tác vụ của AI Agent cũng mở ra một tương lai thú vị về các hệ thống tự động hóa cá nhân hóa, thông minh và an toàn.
Toàn thực sự khuyến khích các bạn, đặc biệt là những ai có đủ cấu hình phần cứng, hãy thử tự mình cài đặt và trải nghiệm gpt-oss-20b qua Ollama. Đó là cách tốt nhất để cảm nhận được sức mạnh và tiềm năng của nó. Thế giới AI đang thay đổi từng ngày, và việc tự tay chạm vào những công nghệ tiên tiến nhất chính là cách tốt nhất để chúng ta không bị bỏ lại phía sau.
Nếu bạn thấy bài viết này hữu ích, hãy chia sẻ nó cho bạn bè và đồng nghiệp. Và đừng quên đăng ký nhận tin từ website của Toàn để không bỏ lỡ những bài phân tích chuyên sâu và hướng dẫn thực tế như thế này nhé!