1. AGI (Trí tuệ nhân tạo tổng quát)
Artificial general intelligence (AGI) là một thuật ngữ khá mơ hồ. Nhìn chung, nó chỉ một hệ thống AI có khả năng thực hiện tốt hơn con người trung bình ở hầu hết mọi tác vụ. CEO OpenAI, Sam Altman, từng mô tả AGI tương đương với "một con người ở mức trung bình mà bạn có thể thuê làm đồng nghiệp". Trong khi đó, Google DeepMind định nghĩa AGI là "AI có khả năng ít nhất bằng con người ở hầu hết các nhiệm vụ nhận thức".
2. AI Agent (Tác tử AI)
AI Agent là công cụ sử dụng công nghệ AI để thay mặt bạn thực hiện một loạt các tác vụ phức tạp — vượt xa những gì một chatbot thông thường có thể làm. Nó có thể tự động duyệt chi phí, đặt vé máy bay, đặt bàn nhà hàng, hoặc thậm chí viết và bảo trì mã code (lập trình). Về cơ bản, đây là một hệ thống tự chủ có thể kết hợp nhiều mô hình AI để hoàn thành công việc gồm nhiều bước.
3. Chain of thought (Chuỗi suy luận)
Với một câu hỏi đơn giản như "Hươu cao cổ và mèo, con nào cao hơn?", não người trả lời ngay lập tức mà không cần suy nghĩ nhiều. Nhưng với các bài toán có nhiều bước trung gian (ví dụ: giải bài toán vừa gà vừa chó), bạn cần giấy bút để ghi ra từng bước.
Trong AI, suy luận theo chuỗi (chain-of-thought) dành cho các mô hình ngôn ngữ lớn (LLM) nghĩa là chia nhỏ vấn đề thành các bước trung gian để cải thiện độ chính xác của kết quả cuối cùng. Mô hình sẽ mất nhiều thời gian hơn để trả lời, nhưng bù lại, câu trả lời sẽ chính xác hơn rất nhiều, đặc biệt là trong các bài toán logic hoặc lập trình.
4. Compute (Năng lực tính toán)
Trong ngành công nghệ, Compute thường chỉ sức mạnh tính toán cần thiết để các mô hình AI hoạt động. Đây là "nhiên liệu" của ngành công nghiệp AI, cho phép huấn luyện và triển khai các mô hình khổng lồ. Thuật ngữ này cũng thường dùng để chỉ các phần cứng cung cấp sức mạnh đó như GPU, CPU, TPU — nền tảng của các trung tâm dữ liệu AI hiện đại.
5. Deep learning (Học sâu)
Là một tập hợp con của Machine Learning (Học máy), trong đó các thuật toán được thiết kế với cấu trúc Mạng nơ-ron nhân tạo (ANN) nhiều lớp. Điều này cho phép AI tạo ra các mối tương quan phức tạp hơn nhiều so với các hệ thống đơn giản như cây quyết định. Cấu trúc của Deep learning được lấy cảm hứng từ các mạng lưới nơ-ron thần kinh trong não bộ con người.
6. Diffusion (Khuếch tán)
Diffusion là công nghệ cốt lõi đằng sau nhiều mô hình AI tạo ảnh, âm nhạc và văn bản (ví dụ: Midjourney, Stable Diffusion). Lấy cảm hứng từ vật lý, hệ thống này từ từ "phá hủy" cấu trúc dữ liệu (ảnh, bài hát) bằng cách thêm "nhiễu" (noise) cho đến khi không còn gì. Sau đó, hệ thống AI học quá trình "khuếch tán ngược" để khôi phục dữ liệu từ đống nhiễu đó, từ đó tạo ra những hình ảnh hoàn toàn mới.
7. Distillation (Chưng cất mô hình)
Đây là kỹ thuật trích xuất kiến thức từ một mô hình AI lớn bằng phương pháp "thầy-trò" (teacher-student). Dữ liệu đầu ra (output) từ mô hình thầy (lớn hơn, thông minh hơn) sẽ được dùng để huấn luyện mô hình trò. Điều này giúp tạo ra một mô hình nhỏ gọn, phản hồi nhanh và tiết kiệm chi phí hơn mà vẫn giữ được độ chính xác gần bằng mô hình gốc.
8. Fine-tuning (Tinh chỉnh)
Fine-tuning là quá trình huấn luyện bổ sung cho một mô hình AI có sẵn (như LLM) để tối ưu hóa hiệu suất cho một nhiệm vụ hoặc lĩnh vực cụ thể (như y tế, luật pháp, tài chính tại Việt Nam). Rất nhiều startup AI sử dụng phương pháp này: lấy một mô hình ngôn ngữ lớn làm nền tảng, sau đó "tinh chỉnh" bằng dữ liệu chuyên ngành của riêng họ để tạo ra sản phẩm thương mại có tính ứng dụng cao.
9. GAN (Mạng sinh đối nghịch)
Generative Adversarial Network (GAN) là cấu trúc máy học đứng sau nhiều công cụ tạo dữ liệu thực tế, điển hình là deepfake. GAN bao gồm hai mạng nơ-ron: một mô hình "Tạo" (Generator) cố gắng làm ra dữ liệu giả, và một mô hình "Phân biệt" (Discriminator) cố gắng phát hiện đâu là đồ giả. Cuộc cạnh tranh này giúp AI tối ưu hóa đầu ra ngày càng chân thực hơn mà không cần con người can thiệp.
10. Hallucination (Ảo giác AI)
Đây là thuật ngữ ngành AI dùng để chỉ hiện tượng AI "bịa đặt" — tạo ra những thông tin hoàn toàn sai lệch nhưng với giọng điệu vô cùng tự tin. Đây là rủi ro lớn nhất của GenAI, có thể dẫn đến những hậu quả thực tế nghiêm trọng (ví dụ: AI đưa ra lời khuyên y tế gây hại). Vì vậy, người dùng luôn được khuyến cáo phải tự xác minh các câu trả lời do AI tạo ra.
11. Inference (Thực thi / Suy luận)
Inference là quá trình chạy một mô hình AI trong thực tế để đưa ra dự đoán hoặc kết luận dựa trên dữ liệu mới. Nói dễ hiểu, nếu "Training" là việc bạn học bài, thì "Inference" chính là lúc bạn làm bài thi. Quá trình này diễn ra mỗi khi bạn gửi một tin nhắn cho ChatGPT.
12. Large language model (Mô hình ngôn ngữ lớn - LLM)
LLM là bộ não đằng sau các trợ lý AI phổ biến như ChatGPT, Google Gemini hay Meta Llama. Chúng là các mạng nơ-ron sâu được tạo thành từ hàng tỷ tham số, học được mối quan hệ giữa các từ ngữ thông qua việc đọc hàng tỷ cuốn sách và bài viết. Khi bạn đặt câu hỏi, mô hình không "suy nghĩ" như người, mà nó tính toán xác suất từ nào sẽ xuất hiện tiếp theo sao cho phù hợp nhất.
13. Memory cache (Bộ nhớ đệm)
Là kỹ thuật tối ưu hóa giúp quá trình Inference diễn ra nhanh và hiệu quả hơn. AI đòi hỏi các phép tính toán học phức tạp tốn rất nhiều năng lượng. Caching (như KV caching) giúp AI lưu lại kết quả của những phép tính trước đó cho các truy vấn tương tự trong tương lai, giúp giảm tải cho hệ thống và trả lời người dùng nhanh hơn.
14. Neural network (Mạng nơ-ron)
Cấu trúc thuật toán nhiều lớp là nền tảng của học sâu (Deep learning). Dù ý tưởng lấy cảm hứng từ não người đã có từ những năm 1940, nhưng phải nhờ đến sự phát triển của phần cứng đồ họa (GPU) hiện đại, sức mạnh của mạng nơ-ron mới thực sự bùng nổ, tạo ra kỷ nguyên AI mà chúng ta đang thấy hôm nay.
15. RAMageddon
Một thuật ngữ vui ghép từ "RAM" và "Armageddon" (Ngày tận thế), ám chỉ sự thiếu hụt nghiêm trọng chip bộ nhớ RAM trên toàn cầu. Sự bùng nổ của AI khiến các ông lớn công nghệ gom sạch RAM cho trung tâm dữ liệu của họ, đẩy giá linh kiện tăng vọt và ảnh hưởng trực tiếp đến người dùng smartphone, máy tính cá nhân và cả máy chơi game.
16. Training (Huấn luyện)
Quá trình cung cấp dữ liệu vào hệ thống để AI học các quy luật và tạo ra đầu ra hữu ích. Huấn luyện rất tốn kém vì yêu cầu khối lượng dữ liệu khổng lồ. Chỉ thông qua huấn luyện, một mô hình AI mới thực sự thành hình và biết cách nhận diện ảnh con mèo hay làm một bài thơ lục bát.
17. Tokens (Mã thông báo)
Token là những khối xây dựng cơ bản của giao tiếp giữa người và AI. Một câu văn bạn viết sẽ được chia nhỏ thành nhiều phần (có thể là một từ, hoặc một phần của từ) gọi là token để AI có thể "hiểu" được dưới dạng số. Tại các doanh nghiệp ứng dụng AI, lượng Token sử dụng quyết định chi phí phải trả. Bạn dùng càng nhiều token, bạn càng phải trả nhiều tiền cho các nhà cung cấp như OpenAI.
18. Transfer learning (Học chuyển giao)
Là kỹ thuật sử dụng một mô hình AI đã được huấn luyện sẵn làm điểm xuất phát để phát triển một mô hình mới cho tác vụ liên quan. Phương pháp này giúp tiết kiệm thời gian, tiền bạc và cực kỳ hữu ích khi bạn không có sẵn một lượng lớn dữ liệu (Ví dụ: Lấy AI nhận diện xe hơi chuyển sang học nhận diện xe máy).
19. Weights (Trọng số)
Trọng số là các thông số toán học xác định mức độ quan trọng của các yếu tố đầu vào. Ví dụ, khi huấn luyện AI dự đoán giá nhà tại Hà Nội hay TP.HCM, các trọng số sẽ quyết định xem yếu tố "hẻm xe hơi", "số phòng ngủ" hay "gần trung tâm" sẽ ảnh hưởng đến giá nhà nhiều hơn.
Việc thấu hiểu những thuật ngữ này không chỉ giúp bạn đọc các bản tin công nghệ dễ dàng hơn, mà còn là bước đệm vững chắc nếu bạn đang muốn tích hợp AI vào công việc hoặc doanh nghiệp của mình.