Tin tức
Tin tức

OpenRouter đã phát hành báo cáo “Tình trạng AI dựa trên dữ liệu 100 triệu tỷ Token”.

Trong thời đại số hiện nay, trí tuệ nhân tạo (AI), đặc biệt là các mô hình ngôn ngữ lớn (LLMs), đang thay đổi thế giới của chúng ta với tốc độ chưa từng có. Chúng ta vẫn thiếu các nghiên cứu thực chứng hệ thống về tình hình sử dụng thực tế và tác động của các mô hình này trong ứng dụng.

Trong thời đại số hóa ngày nay, trí tuệ nhân tạo (AI), đặc biệt là các mô hình ngôn ngữ lớn (LLMs), đang thay đổi thế giới của chúng ta với tốc độ chưa từng có. Về tình hình sử dụng thực tế và tác động của các mô hình trong ứng dụng thực tế, chúng ta vẫn thiếu các nghiên cứu thực chứng có hệ thống. Dựa trên điều này, OpenRouter và a16z đã hợp tác phát hành báo cáo 《State of AI: An Empirical 100 Trillion Token Study with OpenRouter》, thông qua việc phân tích dữ liệu tương tác người dùng thực tế từ hơn 100 triệu tỷ Token trên nền tảng OpenRouter, khám phá sâu sắc tình hình sử dụng thực tế của LLMs trên toàn cầu. Báo cáo tiết lộ bối cảnh cạnh tranh giữa các mô hình mã nguồn mở và mã nguồn đóng, sự trỗi dậy của các mô hình tối ưu hóa suy luận, vị thế thống trị của lập trình và vai trò đóng, xu hướng toàn cầu hóa trong việc sử dụng AI, cũng như các vấn đề quan trọng như giữ chân người dùng và động thái chi phí, cung cấp góc nhìn và dữ liệu mới để hiểu rõ hơn về tình trạng và hướng phát triển tương lai của LLMs.

Bối cảnh và ý nghĩa nghiên cứu

Báo cáo điều tra sâu sắc do OpenRouter và a16z hợp tác phát hành đã tiết lộ rằng lĩnh vực AI đang trải qua một “cuộc phân luồng” chưa từng có. Báo cáo dựa trên 100 triệu tỷ Token của dữ liệu tương tác người dùng thực tế trên nền tảng OpenRouter, bao phủ từ cuối năm 2023 đến tháng 11 năm 2025 (tập trung chủ yếu vào gần 1 năm), bao gồm hơn 300 mô hình và hơn 60 nhà cung cấp, là nghiên cứu thực chứng LLM lớn nhất từ trước đến nay. Trước đó, các chỉ số đánh giá tác động của mô hình AI thường bị giới hạn trong các bài kiểm tra chuẩn học thuật hoặc số lượng người dùng được công bố. OpenRouter cung cấp cái nhìn tổng quan đầu tiên dựa trên mức tiêu thụ sức mạnh tính toán thực tế, tiết lộ cách mà các nhà phát triển và doanh nghiệp thực sự sử dụng AI.

Sự trỗi dậy của mô hình mã nguồn mở

So sánh giữa mô hình mã nguồn mở và mã nguồn đóng:

  • Mô hình mã nguồn đóng: vẫn chiếm ưu thế trong các tình huống có giá trị cao, chiếm khoảng 70% tổng lượng Token sử dụng, đặc biệt trong các nhiệm vụ cấp doanh nghiệp và có quy định (như tuân thủ tài chính, tư vấn y tế), người dùng thường có xu hướng chọn các mô hình độc quyền của các nhà cung cấp như OpenAI, Anthropic, Google (như Claude 3.7 Sonnet, GPT-5 Pro).
  • Mô hình mã nguồn mở: vào cuối năm 2025, tỷ lệ ổn định ở mức 30%, có sự tăng trưởng “bền vững”, không phải là sử dụng thử nghiệm ngắn hạn, mà đã được tích hợp sâu vào môi trường sản xuất (như sau khi phát hành DeepSeek V3, Qwen 3 Coder, lưu lượng truy cập có thể duy trì ở mức cao trong thời gian dài).

Sự bùng nổ của mô hình mã nguồn mở tại Trung Quốc:

  • Dữ liệu: vào cuối năm 2024, tỷ lệ sử dụng mô hình Trung Quốc chỉ là 1.2%; đến nửa cuối năm 2025, trong một số tuần, lượng sử dụng mô hình OSS của Trung Quốc (như DeepSeek, Qwen, MiniMax, Kimi, GLM, v.v.) thậm chí chiếm gần 30% lưu lượng của tất cả các mô hình.
  • Ưu điểm cốt lõi:
    • Tốc độ lặp lại nhanh: Gia đình DeepSeek, Qwen nhanh chóng thích ứng với các tình huống khác nhau thông qua “cập nhật tần suất cao” (như mỗi tháng 1-2 phiên bản mới).
    • Khả năng thích ứng với tình huống mạnh: Trong các lĩnh vực xử lý tiếng Trung, vai trò đóng, tạo mã (như Qwen 3 Coder), hiệu suất gần như ngang bằng hoặc thậm chí vượt qua các mô hình mã nguồn mở (như Meta LLaMA 3.3).

Ưu tiên quy mô mô hình: “Mô hình trung bình” trở thành xu hướng mới

  • Mô hình nhỏ (<15B tham số): tỷ lệ tiếp tục giảm, mặc dù có các sản phẩm mới như Google Gemma 3.12B, nhưng do khả năng hạn chế, người dùng dễ “thay đổi thường xuyên”, khó hình thành độ bám dính ổn định.
  • Mô hình trung bình (15B-70B tham số): vào năm 2025 nổi bật, các mô hình đại diện như Qwen2.5 Coder 32B, Mistral Small 3, đạt được sự cân bằng tối ưu giữa “khả năng (suy luận, mã)” và “hiệu quả (chi phí, độ trễ)”, trở thành lựa chọn hàng đầu của các nhà phát triển.
  • Mô hình lớn (>70B tham số): nhu cầu đa dạng, không còn là “lựa chọn duy nhất” – mặc dù Qwen3 235B, GPT-OSS-120B có hiệu suất mạnh, nhưng do chi phí cao, chỉ được sử dụng trong các nhiệm vụ phức tạp (như thiết kế kiến trúc hệ thống).

Các tình huống sử dụng “phân cực”, lập trình và vai trò đóng thống trị lưu lượng

Mô hình mã nguồn mở: vai trò đóng (Roleplay) chiếm một nửa:

  • Dữ liệu: trong các mô hình mã nguồn mở, 52% Token được sử dụng cho vai trò đóng, vượt xa “tình huống năng suất” (lập trình chiếm 15%-20%, viết lách chiếm 5%).
  • Chi tiết tình huống: bao gồm đối thoại NPC trong trò chơi, sáng tác tiểu thuyết fan, tương tác với bạn ảo, nhu cầu cốt lõi là “phản hồi linh hoạt, độ nhạy cảm cảm xúc, hạn chế nội dung thấp”, mô hình mã nguồn mở có thể điều chỉnh tự do, không bị ràng buộc bởi bộ lọc an toàn thương mại (như DeepSeek Chat V3 hỗ trợ tạo nhân vật tùy chỉnh, mô hình vai trò đóng của Qwen có thể duy trì tính nhất quán trong các cuộc đối thoại dài).

Tất cả các nền tảng: lập trình trở thành “tình huống lớn nhất”, cạnh tranh khốc liệt nhất:

  • Tăng trưởng bùng nổ: tỷ lệ Token cho các nhiệm vụ lập trình từ 11% vào đầu năm 2025 đã tăng vọt lên hơn 50% vào cuối năm, trở thành ứng dụng năng suất cốt lõi nhất của LLM (như tạo mã, gỡ lỗi, hiểu biết về thư viện mã).
  • Cấu trúc thị trường:
    • Anthropic (dòng Claude): lâu dài độc quyền hơn 60% thị phần trong các tình huống lập trình, lần đầu tiên vào tháng 11 năm 2025 giảm xuống dưới 60%.
    • Nhà cạnh tranh nổi lên: OpenAI từ 2% tăng lên 8%, Google ổn định ở mức 15%, OSS Trung Quốc (Qwen Coder, DeepSeek R1) thâm nhập nhanh chóng, các thế lực mới như MiniMax có sự biến động đáng kể trong thị phần hàng tuần (chất lượng mô hình/độ trễ thay đổi nhỏ cũng ảnh hưởng đến sự lựa chọn).

Suy luận Agentic trở thành mô hình mới, AI từ “công cụ tạo” chuyển thành “động cơ phân tích”

Mô hình suy luận: tỷ lệ vượt 50% trong nửa năm:

  • Chuyển đổi mô hình: vào tháng 12 năm 2024, mô hình OpenAI o1 (mã hiệu “dâu tây”) được phát hành, đánh dấu sự chuyển đổi của LLM từ “tạo văn bản một kênh” sang “suy luận nội bộ đa bước” – o1 thông qua “lập kế hoạch tiềm năng, tối ưu hóa lặp lại” nâng cao khả năng logic toán học và quyết định đa bước, sau đó GPT-5, Claude 4.5, Gemini 3 cũng theo sau, vào cuối năm 2025 tỷ lệ Token của mô hình suy luận vượt qua 50%.
  • Mô hình hàng đầu: Grok Code Fast 1 của xAI nổi bật, chiếm khoảng 25% lượng Token trong các tình huống suy luận, vượt qua Google Gemini 2.5 Pro (20%), OpenAI GPT-OSS-120B (15%).

Gọi công cụ và ngữ cảnh dài: “Hai trụ cột của Agentic”:

  • Gọi công cụ trở thành bình thường: vào năm 2025, tỷ lệ yêu cầu gọi công cụ tăng dần (loại trừ đỉnh bất thường vào tháng 5), Anthropic Claude 4.5 Sonnet (sau cuối tháng 9 nhanh chóng chiếm 30%), xAI Grok Code Fast (15%) là những người tiếp nhận chính, đánh dấu AI từ “người đối thoại” chuyển thành “thành phần hệ thống” (như gọi API để truy xuất dữ liệu, thực hiện mã).
  • Độ dài ngữ cảnh tăng vọt:
    • Độ dài prompt trung bình: từ 1500 Token vào đầu năm 2024 tăng lên 6000 Token vào cuối năm 2025 (tăng gấp 4 lần).
    • Độ dài completion: từ 150 Token tăng lên 400 Token (tăng gấp 3 lần).
    • Động lực cốt lõi: các nhiệm vụ lập trình (hiểu biết thư viện mã, gỡ lỗi cần hơn 20000 Token đầu vào), các tình huống khác (như phân tích tài liệu) có sự tăng trưởng ngữ cảnh chậm.

LLM được sử dụng để làm gì?

Lập trình trở thành nhiệm vụ cốt lõi lớn nhất:

  • Dữ liệu: tỷ lệ yêu cầu lập trình Token từ 11% vào đầu năm 2025 đã tăng vọt lên hơn 50% vào cuối năm, trở thành loại hình tăng trưởng ổn định nhất, bao gồm tạo mã, gỡ lỗi, viết kịch bản dữ liệu, đánh dấu sự chuyển đổi của LLM từ đối thoại khám phá sang công cụ ứng dụng, sâu sắc tích hợp vào quy trình làm việc của các nhà phát triển.
  • Cấu trúc cạnh tranh thị trường:
    • Dòng Claude của Anthropic: lâu dài độc quyền hơn 60% thị phần trong các tình huống lập trình, lần đầu tiên vào tháng 11 năm 2025 giảm xuống dưới 60%.
    • OpenAI: tỷ lệ từ 2% tăng lên 8%.
    • Google: ổn định ở mức 15%.
    • OSS Trung Quốc (Qwen, Z.AI) và các tân binh như MiniMax: thâm nhập nhanh chóng, các nhà phát triển rất nhạy cảm với sự thay đổi nhỏ về chất lượng mô hình và độ trễ.

Cấu trúc nội bộ của mười hai nhiệm vụ phổ biến:

  • Vai trò đóng: chiếm 52% lượng Token sử dụng trong mô hình mã nguồn mở, trong đó 60% tập trung vào “trò chơi/trò chơi vai”, tài nguyên cho nhà văn (15.6%), nội dung người lớn (15.4%) có tỷ lệ tương đương, không phải là trò chuyện ngẫu nhiên, mà có nhu cầu rõ ràng về các tình huống loại hình.
  • Phân khúc lập trình: hơn 2/3 lưu lượng thuộc về “lập trình/các lĩnh vực khác”, nhu cầu rộng rãi và phổ biến; công cụ phát triển (26.4%) có tỷ lệ tăng lên, xu hướng chuyên môn hóa rõ rệt.
  • Đặc điểm của các lĩnh vực dài:
    • Lĩnh vực khoa học: 80.4% các truy vấn tập trung vào “học máy và trí tuệ nhân tạo”, chủ yếu là các vấn đề về AI, không phải các chủ đề STEM truyền thống.
    • Lĩnh vực sức khỏe: phân bố rất phân tán, các nhãn con không chiếm quá 25%, bao gồm nghiên cứu y tế, tư vấn, chẩn đoán, nhu cầu phức tạp và nhạy cảm.
    • Lĩnh vực tài chính và pháp lý: các nhãn phân tán, thiếu quy trình làm việc LLM chuyên dụng trưởng thành, ứng dụng vẫn đang trong giai đoạn khám phá.

LLM có sự khác biệt trong việc sử dụng ở các khu vực khác nhau

Phân bố sử dụng theo khu vực:

  • Bắc Mỹ: vẫn là thị trường lớn nhất (chiếm 47.22%), nhưng tỷ lệ tiếp tục giảm.
  • Châu Á: tỷ lệ từ 13% đã tăng gấp đôi lên 31%, trở thành thị trường tiêu dùng tăng trưởng nhanh nhất.
  • Châu Âu: ổn định ở mức 15%-20%.
  • Ở cấp quốc gia: Mỹ dẫn đầu với 47.17%, Singapore (9.21%), Đức (7.51%), Trung Quốc (6.01%) đứng sau, hơn 60 quốc gia trên toàn cầu tham gia sử dụng LLM.

Phân bố ngôn ngữ:

  • Tiếng Anh: chiếm ưu thế tuyệt đối (82.87%), phản ánh cơ sở người dùng nhà phát triển và sự phổ biến của các mô hình tiếng Anh.
  • Tiếng Trung giản thể: chiếm 4.95%, tiếng Nga (2.47%), tiếng Tây Ban Nha (1.43%) theo sau, nhu cầu về các ngôn ngữ không phải tiếng Anh đang dần tăng lên.

Quy luật giữ chân người dùng: “Hiệu ứng giày thủy tinh của nàng Lọ Lem” quyết định độ bám dính lâu dài

Hiện tượng cốt lõi:

  • Tỷ lệ giữ chân người dùng của hầu hết các mô hình thể hiện đặc điểm “mất mát cao, suy giảm nhanh”, nhưng có một nhóm người dùng cơ bản: nhóm người dùng này có khối lượng công việc phù hợp sâu sắc với mô hình, tạo ra quán tính kinh tế và nhận thức, ngay cả khi có mô hình mới được phát
Chia sẻ:

Tác giả tại TopAIHay — chuyên viết về công cụ AI và công nghệ cho thị trường Việt Nam.

Xem tất cả bài viết →

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *