Categories
Gambaru News

Ngành game Trung Quốc lần đầu tiên thu hẹp sau nhiều năm

Trong thập kỷ qua, ngành công nghiệp trò chơi của Trung Quốc đã chứng kiến sự phát triển bùng nổ, vượt qua Mỹ về quy mô thị trường và tạo điều kiện cho những gã khổng lồ xuất bản toàn cầu như Tencent và NetEase phát triển.

Sự bùng nổ một phần là do người dân tiếp cận internet từ rất sớm và có được sức mua. Nhưng thời hoàng kim đã kết thúc khi thị trường gần bão hòa và người tiêu dùng thắt chặt hầu bao trước những khó khăn kinh tế.

Lĩnh vực trò chơi điện tử của Trung Quốc lần đầu tiên có doanh số sụt giảm kể từ ít nhất là năm 2005, theo các báo cáo trước đây (đính kèm bên dưới) từ hiệp hội ngành game hàng đầu của đất nước.

  • Thị trường đã thu về 265,9 tỷ nhân dân tệ (39 tỷ USD) từ doanh số bán game điện tử vào năm 2022, giảm 10,33% so với năm trước, theo một báo cáo mới được hiệp hội công bố.
  • Quy mô người dùng tổng thể giảm xuống còn 664 triệu, ít hơn 0,33% so với năm trước.

Sự sụt giảm làm trầm trọng thêm áp lực đối với một ngành vốn đang gặp khó khăn.

Trong những năm gần đây, Trung Quốc đã tiến hành một loạt các cuộc đàn áp đối với các game điện tử, kiểm soát nội dung phản cảm về mặt ý thức hệ và hạn chế thời gian chơi của người dùng chưa đủ tuổi.

Trong bối cảnh ngành đang chấn động, các cơ quan quản lý đã ngừng cấp giấy phép game mới trong nhiều tháng; quy trình đã được nối lại nhưng hiện mất nhiều thời gian hơn và khiến các công ty tốn nhiều chi phí hơn để tuân thủ.

Để tạo ra những cơ hội phát triển mới, các nhà phát triển từ những studio tồi tàn cho đến những gã khổng lồ như Tencent đều đang ra nước ngoài.

Trò chơi Trung Quốc đã được xuất khẩu trong nhiều năm, nhưng trong thời gian gần đây, chúng bắt đầu tạo được tiếng vang ở phương Tây. Đến cuối năm 2020, các tựa game do Trung Quốc sản xuất chiếm tới 20% doanh thu game di động ở Hoa Kỳ, theo công ty nghiên cứu thị trường Sensor Tower. Tháng 7 năm ngoái, 39 trong số 100 trò chơi di động hàng đầu theo doanh thu trên toàn thế giới là của các công ty Trung Quốc.

Tỷ lệ này thậm chí có thể cao hơn trên thực tế khi các nhà phát triển trò chơi Trung Quốc, giống như các loại dịch vụ internet khác, đang ngày càng cố gắng che giấu nguồn gốc của họ để tránh phản ứng dữ dội khi bị gắn mác “Trung Quốc”.

Chẳng hạn, Ấn Độ đã cấm hàng trăm ứng dụng của Trung Quốc trong những năm gần đây, bao gồm cả PUBG Mobile đình đám toàn cầu, khi mối quan hệ của nước này với Trung Quốc trở nên xấu đi.

Theo báo cáo của ngành, các game sản xuất tại Trung Quốc đã ghi nhận một năm đầy màu hồng khác vào năm 2022, đạt doanh thu 17,3 tỷ USD ở nước ngoài. Mặc dù con số này giảm 3,7% theo năm, nhưng mức giảm này ít đáng kể hơn nhiều so với doanh số bán hàng trong nước.

Trung Quốc nổi tiếng với việc tạo ra các game di động hấp dẫn và béo bở, nhưng những gã khổng lồ game của họ hiện đang tham vọng phát triển các trò chơi ăn khách toàn cầu, kinh phí cao sẽ trường tồn với thời gian.

Tencent, công ty game lớn nhất thế giới tính theo doanh thu, có một console game AAA đang hoạt động tại tiền đồn Lightspeed ở Los Angeles (Lightspeed nổi tiếng nhất với việc phát minh ra phiên bản mobile của PUBG).

Kẻ thù không đội trời chung của Tencent là NetEase cũng đang bận rộn mở cửa hàng ở nước ngoài. Sau khi công bố văn phòng đầu tiên tại Hoa Kỳ tại Austen vào tháng 5 năm ngoái, công ty gần đây đã giới thiệu một studio mới khác.

Doanh số game của Trung Quốc từ năm 2005-2008, được công bố bởi hiệp hội ngành game hàng đầu của đất nước.
Doanh số game của Trung Quốc từ năm 2005-2008
Doanh số game của Trung Quốc từ 2008-2014, được xuất bản bởi hiệp hội ngành công nghiệp trò chơi hàng đầu của đất nước.
Doanh số game của Trung Quốc từ 2008-2014
Doanh số game của Trung Quốc từ năm 20014-2022, được xuất bản bởi hiệp hội ngành công nghiệp trò chơi hàng đầu của đất nước.
Doanh số game của Trung Quốc từ năm 20014-2022

Nguồn: TechCrunch

Categories
Gambaru News

Microsoft ra mắt Bing mới, tích hợp ChatGPT

Hôm nay, tại một sự kiện báo chí ở Redmond, Washington, Microsoft đã công bố tích hợp mô hình GPT-4 của OpenAI được đồn đại từ lâu vào Bing, cung cấp trải nghiệm giống như ChatGPT trong công cụ tìm kiếm.

Giám đốc điều hành Microsoft Satya Nadella cho biết:

“Đây là một ngày mới cho tìm kiếm. Trong 13 năm nay, Microsoft đã cố gắng thuyết phục bạn sử dụng Bing, nhưng bạn không muốn, vì vậy thị phần toàn cầu của nó vẫn ở mức thấp một con số. Giờ đây, công ty đang nỗ lực hết sức để cạnh tranh tốt hơn với Google.”

Hôm nay, công ty cũng sẽ ra mắt phiên bản mới của trình duyệt Edge, với các tính năng AI mới này được tích hợp vào thanh bên (sidebar).

Tích hợp tính năng AI vào sidebar
Tích hợp tính năng AI vào sidebar

Trải nghiệm mới hiện đã có trên Bing nhưng vẫn còn một số hạn chế. Để có trải nghiệm đầy đủ, bạn sẽ phải vào danh sách chờ.

Bing mới hiện có tùy chọn bắt đầu trò chuyện trên thanh công cụ, sau đó đưa bạn đến trải nghiệm trò chuyện giống như ChatGPT.

Một điểm quan trọng cần lưu ý ở đây là mặc dù bot ChatGPT của OpenAI được đào tạo dựa trên dữ liệu chỉ bao gồm đến năm 2021, nhưng phiên bản của Bing cập nhật hơn nhiều và có thể xử lý các truy vấn liên quan đến các sự kiện gần đây hơn ( hiện nay, không phải năm 2021).

Ông Satya Nadella
Ông Satya Nadella

Như Giám đốc điều hành Microsoft Satya Nadella đã lưu ý, nhóm muốn tuân thủ các Nguyên tắc AI của mình và thừa nhận rằng, giống như mọi công nghệ mới, điều quan trọng là phải nhận thức được những hậu quả tiêu cực có thể xảy ra. 

Ông nói: “Đó là về việc nhận thức rõ ràng những hậu quả không mong muốn của bất kỳ công nghệ mới nào”. Ông nhấn mạnh rằng Microsoft muốn sử dụng công nghệ giúp nâng cao năng suất của con người và điều đó phù hợp với các giá trị của con người.

Nadella tin rằng công nghệ này sẽ định hình lại “gần như mọi danh mục phần mềm” và nhấn mạnh rằng một công nghệ như thế này có khả năng định hình lại web.

Theo quan điểm của ông, mọi tương tác máy tính trong tương lai sẽ được trung gian thông qua một tác nhân. Giai đoạn đầu tiên của việc này, ít nhất là đối với Microsoft, là tìm kiếm.

Giao diện của New Bing
Giao diện của New Bing

Như Yusuf Mehdi của Microsoft đã lưu ý, các công cụ tìm kiếm ngày nay vẫn hoạt động rất tốt đối với các truy vấn điều hướng và những truy vấn cung cấp thông tin, yêu cầu các sự kiện cơ bản. Nhưng đối với các truy vấn phức tạp hơn (“bạn có thể đề xuất lịch trình năm ngày cho thành phố Mexico không?”), chiếm một nửa số truy vấn ngày nay, các công cụ tìm kiếm hiện đại không thành công.

Đối với trải nghiệm Bing mới, Microsoft sẽ hiển thị các kết quả dựa trên GPT này trong hộp ở bên phải trang kết quả tìm kiếm. Chúng sẽ bật lên khi bạn tìm kiếm sự thật mà Bing biết câu trả lời.

Bing Edge bản xem trước giới hạn
Bing Edge bản xem trước giới hạn

Nhưng sau đó, cũng có trải nghiệm giống ChatGPT hơn cho các câu hỏi mơ hồ hơn một chút và không có câu trả lời chính xác. Sự khác biệt lớn duy nhất khác mà bạn có thể sẽ nhận thấy ngay là Bing thỉnh thoảng cũng sẽ cố gắng nhắc bạn bằng các câu hỏi của riêng nó và đề xuất các câu trả lời tiềm năng cho những câu hỏi đó. Mô hình của Microsoft rõ ràng là cập nhật hơn nhiều so với những gì ChatGPT hiện đang cung cấp. Điều này bao gồm dữ liệu về giá, chẳng hạn như khả năng sử dụng dữ liệu gần đây cho các mẹo và hành trình du lịch — và nó cũng sẽ vui vẻ viết cho bạn một email để chia sẻ hành trình này với gia đình bạn.

Mô hình của Microsoft cập nhật hơn so với những gì ChatGPT cung cấp
Mô hình của Microsoft cập nhật hơn so với những gì ChatGPT cung cấp

Một tính năng quan trọng khác ở đây — và một tính năng mà tôi nghĩ chúng ta sẽ thấy trong hầu hết các công cụ này — là Bing trích dẫn các nguồn của nó và liên kết đến chúng trong phần “tìm hiểu thêm” ở cuối câu trả lời của nó. Mỗi kết quả cũng sẽ bao gồm một tùy chọn phản hồi.

Cũng cần nhấn mạnh rằng phiên bản cũ, tập trung vào liên kết của Bing sẽ không biến mất. Bạn vẫn có thể sử dụng nó như trước đây, nhưng hiện đã được cải tiến với AI.

Microsoft nhấn mạnh rằng họ đang sử dụng phiên bản GPT mới có thể cung cấp các câu trả lời phù hợp hơn, chú thích những câu trả lời này và cung cấp kết quả cập nhật, đồng thời mang lại trải nghiệm người dùng an toàn hơn. Nó gọi đây là mô hình Prometheus. Về cơ bản, những gì Microsoft đang làm ở đây là sử dụng các mô hình OpenAI và sau đó bọc Prometheus và các công nghệ Bing khác xung quanh nó.

Microsoft rõ ràng có mối quan hệ rất mật thiết với OpenAI. Sau khoản đầu tư ban đầu trị giá 1 tỷ đô la, công ty gần đây đã thông báo rằng họ sẽ đầu tư nhiều hơn nữa và mở rộng quan hệ đối tác với OpenAI, điều này dẫn đến thông báo ngày hôm nay. Và mặc dù Bing luôn là một công cụ tìm kiếm có thẩm quyền (và có thể nói là tốt hơn hầu hết mọi người từng đánh giá cao nó), nhưng nó chưa bao giờ thực sự có được sức hút chủ đạo. Nó luôn đủ tốt, nhưng điều đó không cho người dùng lý do để chuyển đổi. ChatGPT có thể đưa ra lý do này — ít nhất là cho đến khi Google giới thiệu đối thủ cạnh tranh của mình với nhiều đối tượng hơn.

Đối với một số truy vấn, bao gồm cả những truy vấn về mua sắm, tính năng trò chuyện sẽ hiển thị quảng cáo.

Không giống như Google, Microsoft không có một đế chế quảng cáo khổng lồ để bảo vệ, vì vậy công ty có thể sẵn sàng từ bỏ một số doanh thu để giành thị phần từ Google, đối thủ cạnh tranh của nó hôm qua đã công bố Bard. Tuy nhiên, Google đã không cung cấp nhiều chi tiết về cách Bard sẽ hoạt động và tích hợp vào trải nghiệm tìm kiếm của mình. Hiện tại, nó chỉ khả dụng cho một nhóm người kiểm tra đáng tin cậy được chọn.

Một lĩnh vực mà các hệ thống này hướng tới một cách tự nhiên là trợ lý giọng nói. Giống như Microsoft sẽ không làm, nó đã tung ra trợ lý giọng nói Cortana của mình và định vị nó là đối thủ cạnh tranh với Trợ lý Google và Siri. Giống như Bing, đó là một sản phẩm có thẩm quyền (hơn cả Bixby của Samsung) nhưng không đạt được sức hút, vì vậy Microsoft đã dần rút lui. Vào năm 2021, nó đã định vị lại Cortana là dịch vụ hỗ trợ trải nghiệm năng suất dựa trên AI trong Microsoft 365. Bing mới giờ đây cũng có thể cung cấp cho Microsoft các công cụ để tiếp cận thị trường này.

Tất cả những điều này có ý nghĩa gì đối với tương lai của web và sức khỏe tài chính của các nhà xuất bản trực tuyến, những người phụ thuộc vào những người nhấp vào liên kết của họ vẫn còn phải chờ xem. Tuy nhiên, rất có thể những công cụ như thế này sẽ dẫn đến ít nhấp chuột hơn và do đó ít tiền quảng cáo hơn cho nhà xuất bản. Điều này có tiềm năng cho một sự thay đổi mô hình lớn.

Nguồn: TechCrunch

Categories
Gambaru News

Quora mở ứng dụng chatbot AI mới (Poe) cho công chúng

Nền tảng hỏi đáp Quora đã mở quyền truy cập công khai vào ứng dụng chatbot AI mới của mình, Poe, cho phép người dùng đặt câu hỏi và nhận câu trả lời từ một loạt các chatbot AI, bao gồm cả những ứng dụng từ nhà sản xuất ChatGPT, OpenAI và các công ty khác như Anthropic.

Ngoài việc cho phép người dùng thử nghiệm các công nghệ AI mới, nội dung của Poe cuối cùng sẽ giúp phát triển Quora.

Quora lần đầu tiên công bố ứng dụng di động của Poe vào tháng 12, nhưng vào thời điểm đó, cần phải được mời mới dùng thử được. Với việc phát hành vào thứ 6, ai giờ cũng có thể sử dụng Poe. Hiện tại, nó chỉ khả dụng cho người dùng iOS, nhưng Quora cho biết dịch vụ này sẽ xuất hiện trên các nền tảng khác sau vài tháng nữa.

Trong một thông báo, công ty giải thích rằng họ đã quyết định tung ra Poe như một sản phẩm độc lập không phụ thuộc vào Quora vì tốc độ phát triển và thay đổi của AI hiện đang diễn ra nhanh chóng.

Tuy nhiên, sẽ có một số kết nối giữa trang hỏi đáp và Poe. Nếu và khi nội dung của Poe đáp ứng tiêu chuẩn chất lượng đủ cao, nó sẽ được phân phối trên chính trang web của Quora, nơi nó có khả năng tiếp cận 400 triệu khách truy cập hàng tháng của Quora.

Để sử dụng Poe — viết tắt của “Platform for Open Exploration” — người dùng iOS sẽ phải tạo một tài khoản được xác minh bằng cả số điện thoại và địa chỉ email. Sau đó, họ có thể chuyển đổi giữa ba chatbot AI khác nhau có sẵn khi ra mắt.

Chúng bao gồm các chatbot kiến ​​thức tổng quát Sage, Claude và Dragonfly. Cả Sage và Dragonfly đều được cung cấp bởi OpenAI trong khi Claude được cung cấp bởi công nghệ Anthropic. Tất cả đều có những hạn chế riêng của chúng.

Chẳng hạn, Sage và Claude không biết gì về các sự kiện sau năm 2021 và Dragonfly có thể từ chối trả lời một số câu hỏi.

Cả ba đều được biết là đưa ra những tuyên bố không chính xác – đó là một lý do khác khiến bản thân Quora không ngay lập tức tích hợp Poe vào dịch vụ của mình.

Giao diện màn hình Poe
Giao diện màn hình Poe

Sự không chính xác thực tế được cung cấp bởi các AI như ChatGPT đã làm dấy lên mối lo ngại về việc liệu các công nghệ này đã sẵn sàng cho thời kỳ nguyên thủy hay chưa.

Ví dụ, Tạp chí Phố Wall gần đây đã báo cáo rằng ChatGPT đã được chứng minh là khá tệ trong các bài toán được viết bằng ngôn ngữ tự nhiên, thường trả về những câu trả lời thú vị nhưng hoàn toàn sai một cách tự tin. Một trang hỏi đáp khác là Stack Overflow cũng cấm người dùng đăng câu trả lời do ChatGPT tạo ra vì không chính xác.

Tuy nhiên, Quora nhìn thấy tiềm năng của Poe trong việc giúp các nhà phát triển AI làm cho các mô hình của họ trở nên hữu ích hơn cho công chúng, bằng cách cung cấp giao diện trò chuyện dễ sử dụng — điều không phải lúc nào cũng là trọng tâm của các công ty tự xây dựng mô hình AI.

Bài đăng trên blog Quora do Giám đốc điều hành Quora Adam D’Angelo viết.

”… hầu hết mọi người và thậm chí hầu hết các công ty có khả năng đào tạo hoặc tinh chỉnh các mô hình này đều không phù hợp để tạo ra các giao diện này. Điều này đặc biệt đúng trong mô hình đối thoại qua lại đã trở thành tiêu chuẩn để trả lời câu hỏi và sử dụng các mô hình ngôn ngữ lớn khác như ChatGPT, nhưng chúng tôi hy vọng nó cũng sẽ trở nên hữu ích cho các phương thức khác. Chúng tôi hy vọng rằng Poe có thể lấp đầy khoảng trống này và giảm đáng kể khối lượng công việc cần thiết cho bất kỳ nhà phát triển AI nào để tiếp cận được lượng lớn người dùng.”

Để làm cho Poe dễ tiếp cận hơn với các nhà phát triển, nó có kế hoạch cung cấp một API mà bất kỳ nhà phát triển AI nào cũng có thể đưa mô hình của họ vào để tiếp cận một lượng lớn khán giả công khai.

D’Angelo cũng cho biết trong một chủ đề Twitter thông báo về việc ra mắt công chúng của Poe.

“Chúng tôi thấy trước một số lượng lớn các mô hình có sẵn trong tương lai gần. Các mô hình khác nhau sẽ được tối ưu hóa cho các tác vụ khác nhau, chúng sẽ đại diện cho các quan điểm khác nhau hoặc chúng sẽ có quyền truy cập vào các kiến thức khác nhau”.

Ngoài việc cung cấp một cách dễ dàng để đặt câu hỏi cho các bot AI, Poe còn bao gồm một số thành phần xã hội. Ứng dụng này cho phép bạn tạo một hồ sơ và theo dõi những người khác.

Người dùng có thể xuất bản đầu ra của mô hình trên hồ sơ của họ, nếu họ chọn, giúp người theo dõi của họ có thể truy cập được. Các ví dụ tốt nhất cũng sẽ được phân phối cho tất cả người dùng Poe thông qua nguồn cấp dữ liệu của ứng dụng, nơi những người khác có thể Thích hoặc Đăng lại phiên Hỏi & Đáp của chatbot. Bạn có thể di chuyển qua nguồn cấp dữ liệu tương tự như cách bạn điều hướng Câu chuyện trong các ứng dụng xã hội khác — bằng cách nhấn vào bên cạnh màn hình để chuyển tiếp hoặc quay lại bài đăng trước đó.

Poe cũng cung cấp các nút mà bạn có thể nhấn trong mỗi chatbot cho phép bạn xem những gì người khác đã chia sẻ.

Bản thân ứng dụng này là bản tải xuống miễn phí mà không cần mua trong ứng dụng trên App Store.

Nguồn: TechCrunch

Categories
Gambaru News

Ai sở hữu nền tảng Generative AI (AI Tạo Sinh)?

Chúng ta đang bắt đầu thấy những giai đoạn đầu tiên của hệ thống công nghệ (tech stack) xuất hiện trong generative AI.

Hàng trăm công ty khởi nghiệp mới đang đổ xô vào thị trường để phát triển các mô hình nền tảng, xây dựng các ứng dụng gốc AI và xây dựng cơ sở hạ tầng/công cụ.

Nhiều xu hướng công nghệ nóng bỏng đã được thổi phồng quá mức trước khi thị trường bắt kịp. Nhưng sự bùng nổ trí tuệ nhân tạo đã đi kèm với những lợi ích thực sự trên thị trường thực và lực kéo thực từ các công ty thực.

Các mô hình như Stable Diffusion và ChatGPT đang lập kỷ lục lịch sử về tăng trưởng người dùng và một số ứng dụng đã đạt doanh thu hàng năm 100 triệu USD chưa đầy một năm sau khi ra mắt. So sánh song song cho thấy các mô hình AI vượt trội hơn con người trong một số nhiệm vụ theo nhiều bậc độ lớn.

Vì vậy, có đủ dữ liệu ban đầu để cho thấy sự chuyển đổi lớn đang diễn ra. Điều chúng ta không biết, và điều hiện đã trở thành câu hỏi quan trọng, là: Giá trị sẽ tích lũy ở đâu trên thị trường này?

Năm ngoái, chúng tôi đã gặp gỡ hàng chục nhà sáng lập và điều hành công ty khởi nghiệp trong các công ty lớn, những người trực tiếp xử lý generative AI.

Chúng tôi quan sát thấy rằng các nhà cung cấp cơ sở hạ tầng có khả năng là những người chiến thắng lớn nhất trong thị trường này cho đến nay, thu được phần lớn tiền chảy vào lĩnh vực này.

Các công ty ứng dụng hàng đầu đang tăng doanh thu rất nhanh nhưng thường phải vật lộn với việc duy trì, khác biệt hoá sản phẩm và lợi nhuận gộp. Và hầu hết các nhà cung cấp mô hình, mặc dù chịu trách nhiệm về sự tồn tại của thị trường này, vẫn chưa đạt được quy mô thương mại lớn.

Nói cách khác, các công ty tạo ra nhiều giá trị nhất – tức là đào tạo các mô hình Generative AI và áp dụng chúng trong các ứng dụng mới – đã không nắm bắt được phần lớn giá trị đó. Việc dự đoán điều gì sẽ xảy ra tiếp theo khó hơn nhiều.

Nhưng chúng tôi nghĩ rằng điều quan trọng cần hiểu là phần nào trong đó thực sự khác biệt và có thể bảo vệ được. Điều này sẽ có tác động lớn đến cấu trúc thị trường (tức là sự phát triển của công ty theo chiều ngang so với chiều dọc) và các yếu tố thúc đẩy giá trị lâu dài (ví dụ: biên lợi nhuận và tỷ lệ giữ chân).

Cho đến nay, chúng tôi đã gặp khó khăn trong việc tìm kiếm khả năng phòng thủ có cấu trúc ở bất kỳ đâu trong hệ thống công nghệ, bên ngoài các hào kinh tế (moat) truyền thống dành cho những người đương nhiệm.

Chúng tôi vô cùng lạc quan về generative AI và tin rằng nó sẽ có tác động lớn trong ngành công nghiệp phần mềm và hơn thế nữa.

Mục tiêu của bài viết này là làm rõ động lực thị trường và bắt đầu trả lời các câu hỏi rộng hơn về các mô hình kinh doanh generative AI.

Tech stack cấp cao: Cơ sở hạ tầng, mô hình và ứng dụng

Để hiểu thị trường AI tổng quát đang hình thành như thế nào, trước tiên chúng ta cần xác định hệ thống công nghệ này hiện nay trông ra sao. Đây là quan điểm sơ bộ của chúng tôi.

Sơ bộ về tech stack Generative AI
Sơ bộ về tech stack Generative AI

Stack có thể được chia thành ba lớp:

  • Các ứng dụng tích hợp các mô hình generative AI vào một sản phẩm hướng tới người dùng, chạy các quy trình mô hình của riêng chúng (“ứng dụng đầu cuối end-to-end”) hoặc dựa vào API của bên thứ ba
  • Các mô hình cung cấp sức mạnh cho các sản phẩm AI, được cung cấp dưới dạng API độc quyền hoặc dưới dạng checkpoint nguồn mở (do đó, yêu cầu giải pháp lưu trữ)
  • Các nhà cung cấp cơ sở hạ tầng (tức là nền tảng đám mây và nhà sản xuất phần cứng) chạy các công việc đào tạo và suy luận cho các mô hình GenerativeAI.

Lưu ý: Đây không phải là bản đồ thị trường, mà là một khuôn khổ để phân tích thị trường. Trong mỗi danh mục, chúng tôi đã liệt kê một vài ví dụ về các nhà cung cấp nổi tiếng. Chúng tôi chưa thực hiện bất kỳ nỗ lực nào để trở nên toàn diện hoặc liệt kê tất cả các ứng dụng generative AI tuyệt vời đã được phát hành. Ở đây, chúng tôi cũng sẽ không đi sâu về công cụ MLOps hoặc LLMops, vốn chưa được tiêu chuẩn hóa cao.

Làn sóng đầu tiên các ứng dụng generative AI đang bắt đầu đạt quy mô, nhưng gặp khó khăn trong việc duy trì và khác biệt hoá

Làn sóng ứng dụng Generative AI đạt quy mô nhưng khó khăn trong duy trì và mở rộng
Làn sóng ứng dụng Generative AI đạt quy mô nhưng khó khăn trong duy trì và mở rộng

Trong các chu kỳ công nghệ trước đây, bình thường để xây dựng một công ty lớn, độc lập, bạn phải sở hữu khách hàng cuối cùng — dù điều đó có nghĩa là người tiêu dùng cá nhân hay khách hàng B2B. Thật hấp dẫn khi tin rằng các công ty lớn nhất về generative AI cũng sẽ là các ứng dụng dành cho người dùng cuối. Cho đến nay, chưa có gì rõ ràng rằng điều đó đúng.

Chắc chắn, sự phát triển của các ứng dụng generative AI đã rất đáng kinh ngạc, được thúc đẩy bởi tính mới tuyệt đối và rất nhiều trường hợp sử dụng. Trên thực tế, chúng tôi biết ít nhất ba danh mục sản phẩm đã vượt trên 100 triệu đô doanh thu hàng năm: tạo hình ảnh, viết quảng cáo (copywriting) và viết mã (code writing).

Tuy nhiên, chỉ tăng trưởng thôi là không đủ để xây dựng các công ty phần mềm lâu bền. Quan trọng là, tăng trưởng phải mang lại lợi nhuận — nghĩa là người dùng và khách hàng, sau khi họ đăng ký, sẽ tạo ra lợi nhuận (tỷ suất lợi nhuận gộp cao) và gắn bó lâu dài (tỷ lệ giữ chân cao).

Trong trường hợp không có sự khác biệt rõ ràng về mặt kỹ thuật, các ứng dụng B2B và B2C sẽ thúc đẩy giá trị lâu dài của khách hàng thông qua hiệu ứng mạng lưới, nắm giữ dữ liệu hoặc xây dựng các quy trình công việc ngày càng phức tạp.

Trong generative AI, những giả định đó không nhất thiết phải đúng.

Trên khắp các công ty ứng dụng mà chúng tôi đã nói chuyện, có rất nhiều tỷ suất lợi nhuận gộp — một số trường hợp cao tới 90% nhưng thường thấp tới 50-60%, chủ yếu do chi phí áp dụng mô hình.

Mức tăng trưởng đầu kênh thật đáng kinh ngạc, nhưng vẫn chưa rõ liệu các chiến lược thu hút khách hàng hiện tại có thể mở rộng hay không — chúng tôi đã thấy hiệu quả của việc trả tiền thu hút người dùng (paid acquisition) và tỷ lệ giữ chân (retention) bắt đầu sụt giảm.

Nhiều ứng dụng cũng tương đối không có sự khác biệt, vì chúng dựa trên các mô hình AI căn bản tương tự nhau và chưa phát hiện ra các hiệu ứng mạng lưới hoặc dữ liệu/quy trình công việc rõ ràng mà các đối thủ cạnh tranh khó có thể sao chép.

Vì vậy, vẫn chưa rõ ràng rằng việc bán ứng dụng cho người dùng cuối là con đường duy nhất, hoặc thậm chí là tốt nhất, để xây dựng một doanh nghiệp generative AI bền vững.

Lợi nhuận sẽ được cải thiện khi tính cạnh tranh và hiệu quả trong các mô hình ngôn ngữ tăng lên (sẽ nói thêm ở bên dưới). Tỷ lệ giữ chân sẽ tăng lên khi ‘khách du lịch’ AI rời khỏi thị trường. Và có một lập luận mạnh mẽ được đưa ra rằng các ứng dụng được tích hợp theo chiều dọc có lợi thế trong việc thúc đẩy sự khác biệt. Nhưng vẫn còn rất nhiều điều để chứng minh.

Nhìn về phía trước, một số câu hỏi lớn mà các công ty ứng dụng generative AI phải đối mặt bao gồm:

  • Tích hợp dọc (“mô hình + ứng dụng”). Sử dụng các mô hình AI như một dịch vụ (AI models as a service) cho phép các nhà phát triển ứng dụng lặp lại nhanh chóng với một nhóm nhỏ và trao đổi các nhà cung cấp mô hình khi công nghệ tiến bộ. Mặt khác, một số nhà phát triển lập luận rằng sản phẩm là mô hình và đào tạo từ đầu là cách duy nhất để tạo khả năng phòng thủ — tức là bằng cách liên tục đào tạo lại dữ liệu sản phẩm độc quyền. Nhưng nó phải trả giá bằng yêu cầu vốn cao hơn nhiều và đội ngũ sản phẩm kém linh hoạt hơn.
  • Xây dựng Tính năng vs. Ứng dụng. Các sản phẩm generative AI có nhiều hình thái khác nhau: ứng dụng dành cho máy tính để bàn, ứng dụng di động, plugin Figma/Photoshop, tiện ích mở rộng của Chrome, thậm chí cả bot Discord. Thật dễ dàng để tích hợp các sản phẩm AI nơi người dùng đã làm việc, vì giao diện người dùng nói chung chỉ là một hộp văn bản. Công ty nào trong số này sẽ trở thành công ty độc lập — và công ty nào sẽ được các công ty đương nhiệm, như Microsoft hay Google, đã tích hợp AI vào các dòng sản phẩm của họ, thâu tóm?
  • Quản lý qua chu kỳ bong bóng (hype cycle). Vẫn chưa rõ liệu sự suy giảm là vốn có trong các sản phẩm generative AI hiện tại hay đó là sản phẩm của một thị trường sơ khai. Hoặc liệu sự quan tâm ngày càng tăng đối với generative AI sẽ giảm khi chu kỳ bong bóng lắng xuống. Những câu hỏi này có ý nghĩa quan trọng đối với các công ty ứng dụng, bao gồm cả thời điểm nhấn bàn đạp để gây quỹ; đầu tư tích cực ra sao vào việc thu hút khách hàng; ưu tiên phân khúc người dùng nào; và khi nào thì tuyên bố sản phẩm phù hợp với thị trường.

Các nhà cung cấp mô hình đã phát minh ra generative AI, nhưng chưa đạt quy mô thương mại lớn

Generative AI chưa đạt đến quy mô thương mại quá lớn
Generative AI chưa đạt đến quy mô thương mại quá lớn

Cái mà chúng ta gọi là generative AI sẽ không tồn tại nếu không có công trình nghiên cứu và kỹ thuật xuất sắc được thực hiện ở những nơi như Google, OpenAI và Stability.

Thông qua các kiến trúc mô hình mới lạ và những nỗ lực to lớn để mở rộng quy mô đào tạo, tất cả chúng ta đều được hưởng lợi từ khả năng tuyệt vời của các mô hình ngôn ngữ lớn (LLM – large language model) và mô hình tạo ảnh (image-generation) hiện tại.

Tuy nhiên, doanh thu liên quan đến các công ty này vẫn còn tương đối nhỏ so với việc khả năng sử dụng và những tin đồn. Trong image-generation, Stable Diffusion đã chứng kiến sự phát triển bùng nổ của cộng đồng, được hỗ trợ bởi một hệ sinh thái gồm các giao diện người dùng, dịch vụ được lưu trữ và các phương pháp tinh chỉnh. Nhưng Stability cung cấp miễn phí các trạm kiểm soát chính của họ như một nguyên lý cốt lõi trong hoạt động kinh doanh. Trong các mô hình ngôn ngữ tự nhiên, OpenAI chiếm ưu thế với GPT-3/3.5 và ChatGPT. Nhưng cho đến nay, có tương đối ít ứng dụng sát thủ được xây dựng trên OpenAI tồn tại và giá đã từng giảm xuống.

Đây có thể chỉ là một hiện tượng tạm thời. Stability là một công ty mới chưa tập trung vào kiếm tiền. OpenAI có tiềm năng trở thành một doanh nghiệp lớn, kiếm được một phần đáng kể trong tổng doanh thu của danh mục NLP khi nhiều ứng dụng sát thủ hơn được xây dựng — đặc biệt nếu việc tích hợp chúng vào danh mục sản phẩm của Microsoft diễn ra suôn sẻ. Với việc sử dụng rất nhiều mô hình này, doanh thu quy mô lớn có thể không còn xa nữa.

...nhưng doanh thu quy mô lớn có thể sẽ không còn xa nữa
…nhưng doanh thu quy mô lớn có thể sẽ không còn xa nữa

Nhưng cũng có những lực lượng đối kháng. Các mô hình được phát hành dưới dạng nguồn mở có thể được lưu trữ bởi bất kỳ ai, kể cả các công ty bên ngoài không chịu chi phí liên quan đến đào tạo mô hình quy mô lớn (lên đến hàng chục hoặc hàng trăm triệu đô). Và không rõ liệu có bất kỳ mô hình nguồn đóng nào có thể duy trì lợi thế của chúng vô thời hạn hay không. Ví dụ: chúng tôi bắt đầu thấy các LLM được xây dựng bởi các công ty như Anthropic, Cohere và Character.ai tiến gần hơn đến các mức hiệu suất của OpenAI, được đào tạo trên các bộ dữ liệu tương tự (tức là internet) và với các kiến trúc mô hình tương tự. Ví dụ về Stable Diffusion gợi ý rằng nếu các mô hình nguồn mở đạt đủ mức hiệu suất và hỗ trợ cộng đồng, thì các giải pháp thay thế độc quyền có thể khó cạnh tranh.

Cho đến nay, có lẽ điểm rõ ràng nhất đối với các nhà cung cấp mô hình là việc thương mại hóa có khả năng gắn liền với việc lưu trữ. Nhu cầu về các API độc quyền (ví dụ: từ OpenAI) đang tăng lên nhanh chóng. Dịch vụ lưu trữ cho các mô hình nguồn mở (ví dụ: Hugging Face và Replicate) đang nổi lên như những trung tâm hữu ích để dễ dàng chia sẻ và tích hợp các mô hình — và thậm chí có một số hiệu ứng mạng gián tiếp giữa nhà sản xuất mô hình và người tiêu dùng. Ngoài ra còn có một giả thuyết mạnh mẽ rằng có thể kiếm tiền thông qua các thỏa thuận lưu trữ và tinh chỉnh với khách hàng doanh nghiệp.

Tuy nhiên, ngoài ra, có một số câu hỏi lớn mà các nhà cung cấp mô hình phải đối mặt:

  • Hàng hóa hóa. Có một niềm tin chung rằng theo thời gian, các mô hình AI sẽ hội tụ về hiệu suất. Nói chuyện với các nhà phát triển ứng dụng, rõ ràng là điều đó vẫn chưa xảy ra, với những người dẫn đầu trong cả mô hình văn bản và hình ảnh. Lợi thế của họ không dựa trên kiến trúc mô hình độc đáo, mà dựa trên yêu cầu vốn cao, dữ liệu tương tác sản phẩm độc quyền và khan hiếm tài năng AI. Điều này sẽ phục vụ như là một lợi thế lâu dài?
  • Rủi ro qua cầu rút ván. Dựa vào các nhà cung cấp mô hình là một cách tuyệt vời để các công ty ứng dụng bắt đầu và thậm chí là phát triển doanh nghiệp của họ. Nhưng có động cơ khuyến khích họ xây dựng và/hoặc lưu trữ các mô hình của riêng họ sau khi đạt đến quy mô. Và nhiều nhà cung cấp mô hình có phân phối khách hàng rất sai lệch, với một vài ứng dụng chiếm phần lớn doanh thu. Điều gì xảy ra nếu/khi những khách hàng này chuyển sang phát triển AI nội bộ?
  • Tiền có quan trọng không? Lời hứa về generative AI lớn đến mức và cũng có khả năng gây hại đến mức nhiều nhà cung cấp mô hình đã tổ chức thành các tập đoàn công ích (B corps), phát hành cổ phiếu lợi nhuận giới hạn hoặc nói cách khác là kết hợp rõ ràng lợi ích cộng đồng vào sứ mệnh của họ. Điều này hoàn toàn không cản trở nỗ lực gây quỹ của họ. Nhưng có một cuộc thảo luận hợp lý xung quanh việc liệu hầu hết các nhà cung cấp mô hình có thực sự muốn nắm bắt giá trị hay không và liệu họ có nên làm như vậy hay không.

Các nhà cung cấp hạ tầng chạm vào mọi thứ và gặt hái thành quả

Nhà cung cấp hạ tầng Generative AI chạm đâu cũng ra tiền
Nhà cung cấp hạ tầng Generative AI chạm đâu cũng ra tiền

Gần như mọi thứ trong generative AI đều đi qua GPU (hoặc TPU) được lưu trữ trên đám mây tại một thời điểm nào đó. Cho dù đối với các nhà cung cấp mô hình/phòng thí nghiệm nghiên cứu đang chạy khối lượng công việc đào tạo, các công ty lưu trữ chạy suy luận/tinh chỉnh hay các công ty ứng dụng thực hiện kết hợp cả hai – FLOPS là mạch máu của generative AI. Lần đầu tiên sau một thời gian rất dài, tiến bộ của công nghệ điện toán đột phá nhất là giới hạn điện toán đại trà.

Kết quả là, rất nhiều tiền trong thị trường generative AI cuối cùng chảy vào các công ty cơ sở hạ tầng.

Một con số rất sơ bộ: chúng tôi ước tính rằng, trung bình, các công ty ứng dụng chi khoảng 20-40% doanh thu cho việc suy luận và tinh chỉnh theo từng khách hàng. Khoản tiền này thường được thanh toán trực tiếp cho các nhà cung cấp đám mây đối với các phiên bản điện toán hoặc cho các nhà cung cấp mô hình bên thứ ba — đến lượt họ, họ chi khoảng một nửa doanh thu của họ cho cơ sở hạ tầng đám mây. Vì vậy, thật hợp lý khi đoán rằng 10-20% tổng doanh thu từ generative AI ngày nay thuộc về các nhà cung cấp đám mây.

Ngoài ra, các công ty khởi nghiệp đào tạo các mô hình của riêng họ đã huy động được hàng tỷ đô vốn đầu tư mạo hiểm — phần lớn trong số đó (lên tới 80-90% trong các vòng đầu tiên) cũng thường được chi cho các nhà cung cấp đám mây.

Nhiều công ty công nghệ đại chúng chi hàng trăm triệu mỗi năm cho việc đào tạo mô hình, với các nhà cung cấp đám mây bên ngoài hoặc trực tiếp với các nhà sản xuất phần cứng.

Về mặt kỹ thuật, đây là cái mà chúng tôi gọi là “rất nhiều tiền” — đặc biệt đối với một thị trường non trẻ.

Phần lớn trong số đó được chi cho Big 3 cloud: Amazon Web Services (AWS), Google Cloud Platform (GCP) và Microsoft Azure.

Các nhà cung cấp đám mây này cùng nhau chi hơn 100 tỷ đô la mỗi năm cho vốn đầu tư để đảm bảo họ có các nền tảng toàn diện, đáng tin cậy và cạnh tranh về chi phí nhất. Đặc biệt, trong generative AI, họ cũng được hưởng lợi từ các hạn chế về nguồn cung vì họ có quyền truy cập ưu tiên vào phần cứng khan hiếm (ví dụ: GPU Nvidia A100 và H100).

Tuy nhiên, điều thú vị là chúng ta đang bắt đầu thấy sự cạnh tranh đáng tin cậy xuất hiện.

Những người thách thức như Oracle đã xâm nhập với chi phí đầu tư lớn và khuyến khích bán hàng.

Và một số công ty khởi nghiệp, như Coreweave và Lambda Labs, đã phát triển nhanh chóng với các giải pháp nhắm mục tiêu cụ thể đến các nhà phát triển mô hình lớn. Họ cạnh tranh về chi phí, tính khả dụng và hỗ trợ cá nhân hóa. Chúng cũng hiển thị các bản tóm tắt tài nguyên chi tiết hơn (tức là các bộ chứa), trong khi các đám mây lớn chỉ cung cấp các phiên bản VM do giới hạn ảo hóa GPU.

Những người thách thức đã xuất hiện để cạnh tranh
Những người thách thức đã xuất hiện để cạnh tranh

Đằng sau hậu trường, điều hành phần lớn khối lượng công việc AI, có lẽ là người chiến thắng lớn nhất trong lĩnh vực AI tổng quát cho đến nay: Nvidia.

Công ty đã báo cáo 3,8 tỷ đô doanh thu GPU của trung tâm dữ liệu trong quý thứ ba của năm tài chính 2023, bao gồm một phần đáng kể cho các trường hợp sử dụng generative AI.

Và họ đã xây dựng những con hào vững chắc xung quanh hoạt động kinh doanh này thông qua hàng thập kỷ đầu tư vào kiến trúc GPU, một hệ sinh thái phần mềm mạnh mẽ và sử dụng rộng rãi trong cộng đồng học thuật.

Một phân tích gần đây cho thấy GPU Nvidia được trích dẫn trong các tài liệu nghiên cứu nhiều hơn 90 lần so với các công ty khởi nghiệp chip AI hàng đầu cộng lại.

Các tùy chọn phần cứng khác tồn tại, bao gồm Google Tensor Processing Units (TPU); GPU của AMD Instinct; chip AWS Inferentia và Trainium; và các công cụ tăng tốc AI từ các công ty khởi nghiệp như Cerebras, Sambanova và Graphcore. Intel, đến muộn trong cuộc chơi, cũng đang tham gia thị trường với chip Habana cao cấp và GPU Ponte Vecchio của họ.

Nhưng cho đến nay, rất ít chip mới này chiếm được thị phần đáng kể. Hai trường hợp ngoại lệ cần theo dõi là Google, công ty có TPU đã đạt được sức hút trong cộng đồng Stable Diffusion và trong một số giao dịch GCP lớn, và TSMC, công ty được cho là sản xuất tất cả các chip được liệt kê ở đây, bao gồm cả GPU Nvidia (Intel sử dụng kết hợp các fab – nhà sản xuất chip bán dẫn – riêng và TSMC để sản xuất chip của mình).

Nói cách khác, cơ sở hạ tầng là một lớp sinh lợi, lâu bền và dường như có thể phòng thủ được trong stack. Các câu hỏi lớn cần trả lời cho các công ty cơ sở hạ tầng bao gồm:

  • Nắm giữ khối lượng công việc không trạng thái (stateless). GPU Nvidia giống nhau ở bất cứ nơi nào bạn thuê chúng. Hầu hết các khối lượng công việc AI đều không trạng thái, theo nghĩa là suy luận mô hình không yêu cầu cơ sở dữ liệu hoặc bộ lưu trữ đính kèm (ngoại trừ đối với chính trọng số của mô hình). Điều này có nghĩa là khối lượng công việc AI có thể linh hoạt hơn trên các đám mây so với khối lượng công việc của ứng dụng truyền thống. Làm thế nào, trong bối cảnh này, các nhà cung cấp đám mây có thể tạo ra sự kết dính và ngăn cản khách hàng chuyển sang lựa chọn rẻ nhất?
  • Sống sót qua giai đoạn khan hiếm chip. Việc định giá cho các nhà cung cấp dịch vụ đám mây và cho chính Nvidia, đã được hỗ trợ bởi nguồn cung khan hiếm các GPU đáng mơ ước nhất. Một nhà cung cấp cho chúng tôi biết rằng giá niêm yết của A100 đã thực sự tăng kể từ khi ra mắt, điều này rất bất thường đối với phần cứng máy tính. Khi hạn chế về nguồn cung này cuối cùng được loại bỏ, thông qua việc tăng cường sản xuất và/hoặc áp dụng các nền tảng phần cứng mới, điều này sẽ tác động như thế nào đến các nhà cung cấp đám mây?
  • Một đám mây thách thức có thể vượt qua? Chúng tôi tin tưởng mạnh mẽ rằng các đám mây chiều dọc (vertical cloud) sẽ chiếm thị phần từ Big 3 với các dịch vụ chuyên biệt hơn. Trong AI cho đến nay, những người thách thức đã tạo ra lực kéo có ý nghĩa thông qua sự khác biệt kỹ thuật vừa phải và sự hỗ trợ của Nvidia – những người mà các nhà cung cấp đám mây hiện tại vừa là khách hàng lớn nhất vừa là đối thủ cạnh tranh mới nổi. Câu hỏi dài hạn là, liệu điều này có đủ để vượt qua lợi thế quy mô của Big 3?

Vậy… giá trị sẽ tích lũy ở đâu?

Tất nhiên, chúng tôi chưa biết. Nhưng dựa trên dữ liệu ban đầu mà chúng tôi có về generative AI, kết hợp với kinh nghiệm của chúng tôi với các công ty AI/ML trước đó, trực giác của chúng tôi như sau.

Ngày nay, dường như không có bất kỳ con hào (moat – hào kinh tế) có hệ thống nào trong generative AI. Khả năng cao nhất là, các ứng dụng thiếu sự khác biệt mạnh mẽ về sản phẩm vì chúng sử dụng các mô hình tương tự nhau; các mô hình phải đối mặt với sự khác biệt dài hạn không rõ ràng vì chúng được đào tạo trên các bộ dữ liệu tương tự với các kiến trúc tương tự; các nhà cung cấp đám mây thiếu sự khác biệt kỹ thuật sâu sắc vì họ chạy cùng một GPU; và ngay cả các công ty phần cứng cũng sản xuất chip của họ tại cùng một nhà máy.

Tất nhiên, còn có những con hào (moat) tiêu chuẩn khác:

  • hào quy mô (“Tôi có hoặc có thể huy động được nhiều tiền hơn bạn!”),
  • hào chuỗi cung ứng (“Tôi có GPU, bạn thì không!”),
  • hào hệ sinh thái (“Tôi có GPU, bạn thì không!” Mọi người đã sử dụng phần mềm của tôi rồi!”),
  • hào về thuật toán (“Chúng tôi thông minh hơn bạn!”),
  • hào về phân phối (“Tôi đã có đội ngũ bán hàng và nhiều khách hàng hơn bạn!”) và
  • hào về data pipeline (“Tôi’ đã thu thập thông tin trên Internet nhiều hơn bạn!”).

Nhưng không có con hào nào trong số này có xu hướng bền vững trong thời gian dài. Và còn quá sớm để biết liệu các hiệu ứng mạng trực tiếp, mạnh mẽ có đang chiếm ưu thế trong bất kỳ lớp nào của stack hay không.

Dựa trên dữ liệu có sẵn, không rõ liệu sẽ có một động lực lâu dài, được-ăn-cả trong generative AI hay không.

Điều này thật kỳ lạ. Nhưng đối với chúng tôi, đó là tin tốt. Quy mô tiềm năng của thị trường này rất khó nắm bắt — nằm ở đâu đó giữa tất cả phần mềm và tất cả nỗ lực của con người — vì vậy chúng tôi mong đợi nhiều, rất nhiều người chơi và sự cạnh tranh lành mạnh ở mọi cấp độ của hệ thống.

Chúng tôi cũng kỳ vọng cả các công ty theo chiều ngang và chiều dọc sẽ thành công, với cách tiếp cận tốt nhất do thị trường cuối cùng và người dùng cuối quyết định.

Ví dụ: nếu sự khác biệt chính trong sản phẩm cuối cùng là chính AI, thì có khả năng quá trình dọc hóa (tức là kết hợp chặt chẽ ứng dụng hướng tới người dùng với mô hình do người dùng tự phát triển) sẽ thắng thế. Trong khi đó, nếu AI là một phần của bộ tính năng đuôi dài, lớn hơn, thì nhiều khả năng nó sẽ xảy ra theo chiều ngang. Tất nhiên, chúng ta cũng sẽ thấy việc xây dựng nhiều hào truyền thống hơn theo thời gian — và thậm chí chúng ta có thể thấy các loại hào mới đang chiếm ưu thế.

Dù thế nào đi chăng nữa, một điều chúng tôi chắc chắn là generative AI sẽ thay đổi trò chơi. Tất cả chúng ta đều đang học các quy tắc trong thời gian thực, có rất nhiều giá trị sẽ được mở khóa và kết quả là bối cảnh công nghệ sẽ khác đi rất nhiều. Và chúng tôi ở đây vì nó!

Tất cả hình ảnh trong bài đăng này được tạo bằng Midjourney.

Nguồn: Matt Bornstein, Guido Appenzeller, and Martin Casado (a16z)

Categories
Gambaru News

Màn so kè giữa ChatGPT và Google qua 500 truy vấn tìm kiếm. Kết quả ra sao?

Chúng tôi đã đánh giá ChatGPT với Google và nhận thấy rằng ChatGPT đánh bại Google trong các truy vấn liên quan tới coding và suýt sao ở các truy vấn chung về thông tin — dù không được tối ưu hóa cho trải nghiệm tìm kiếm. Hãy cùng tìm hiểu về mối đe dọa hiện hữu của OpenAI đối với Google.

Trước thì ChatGPT cướp việc của tôi. Giờ thì tới của Google
Trước thì ChatGPT cướp việc của tôi. Giờ thì tới của Google

ChatGPT vs. Google

Hãy tưởng tượng bạn muốn xóa sạch tất cả các tệp Python trong một thư mục. Bạn tìm tới Google.

Thật không may, công cụ tìm kiếm thống trị thế giới lại hiểu sai truy vấn của bạn!

Google hiểu sai truy vấn
Google hiểu sai truy vấn

Không ấn tượng với người đương nhiệm, bạn chuyển sang ChatGPT.

Phản hồi siêu tuỳ chỉnh của ChatGPT
Phản hồi siêu tuỳ chỉnh của ChatGPT

Và phản hồi của ChatGPT là hoàn hảo, siêu tùy chỉnh chính xác theo nhu cầu về file .py của bạn.

Nó cũng kèm theo 1 tip rất hay mà bạn chưa bao giờ nghĩ rằng mình sẽ hỏi tới. Tôi luôn xóa các tệp và luôn tạo một thư mục sao lưu trước. Tôi thậm chí còn không biết tùy chọn “-print” có tồn tại.

Tôi thậm chí có thể theo dõi bằng cách yêu cầu ChatGPT tạo một folder mẫu.

Yêu cầu ChatGPT tạo thư mục mẫu có sẵn file và thư mục con để test
Yêu cầu ChatGPT tạo thư mục mẫu có sẵn file và thư mục con để test

Nghe tiếng gì không? Đó là tiếng thút thít của 10.000 nhân viên Google đang mất đi dịch vụ mát-xa tại chỗ và các trận bóng chuyền giữa ngày khi Sundar vùi dập công ty của mình vào Code Red.

Các mô hình ngôn ngữ lớn (LLM) và Google-Killer

Theo nhiều cách, ChatGPT là định nghĩa về tương lai của Tìm kiếm. Trí tuệ nhân tạo siêu thông minh có ích lợi gì nếu nó không thể cho tôi biết tình hình thời tiết, gợi ý cho tôi một nhà hàng mới thú vị để thử và tóm tắt câu chuyện quá khứ của Lionel Messi?

Hiểu biết về sự rộng lớn của web từng là công nghệ sát thủ của Google và giờ đây, một công ty nhỏ mới nổi đang đe dọa điều đó.

Tất cả chúng ta đều thích đứng về phía kẻ yếu thế. Và Twitter đã chạy điên cuồng với các ví dụ mà ChatGPT đè bẹp Google.

Twitter đang điên cuồng cho thấy ChatGPT đè bẹp Google
Twitter đang điên cuồng cho thấy ChatGPT đè bẹp Google

Các mô hình ngôn ngữ lớn có thể là đòn sát thủ của Google. Microsoft đã dấn sâu vào OpenAI; hãy hình dung công nghệ này nằm trong tay những công ty khởi nghiệp táo bạo hơn như Neeva, You.com và cả Kagi nữa.

Nhưng có phải Twitter chỉ hiển thị 10 truy vấn tốt nhất trong số 10.000 truy vấn hay sự thống trị của ChatGPT đã lan rộng?

Đánh giá các mô hình ngôn ngữ và đo lường chất lượng tìm kiếm là công việc chính của chúng tôi tại Surge AI. Hãy cùng xem.

Google vs. OpenAI: Đánh giá của con người

Để phân tích hiệu suất của ChatGPT so với Google, chúng tôi đã thực hiện đánh giá sau:

  1. Chúng tôi đã yêu cầu 100 Surger (nhân viên của Surge AI) xem lịch sử tìm kiếm của họ và trích xuất 5 truy vấn “thông tin” gần đây nhất của họ.
  2. Các truy vấn này cũng phải có thể trả lời được trước năm 2022, vì ChatGPT không có quyền truy cập vào dữ liệu mới hơn (ít nhất là cho đến khi nó kết hợp WebGPT!).
  3. Họ đã sử dụng lại cùng một truy vấn trên Google và cũng đặt truy vấn cho ChatGPT, có thể ở định dạng mang tính trò chuyện hơn.
  4. Cuối cùng, họ đánh giá hiệu suất của Google và ChatGPT, đồng thời so sánh 2 trải nghiệm.

Kết quả?

Dù hoàn toàn không được tối ưu hóa cho trải nghiệm tìm kiếm, nhưng ChatGPT đã phù hợp hoặc đánh bại một chút hiệu suất của Google.

Những người đánh giá công cụ tìm kiếm Surge AI ưa thích ChatGPT trên 42% truy vấn và Google trên 40%.

ChatGPT suýt sao đánh bại Google
ChatGPT suýt sao đánh bại Google

Nếu chúng ta đào sâu vào từng nền tảng riêng lẻ, chúng tôi thấy rằng ChatGPT thường xuyên được cho điểm cao nhất: rất thường xuyên được chấm Amazing (đỉnh của chóp), và cũng rất thường xuyên là Bad.

ChatGPT thường được đánh giá Amazing, nhưng cũng thường nhận đánh giá Bad
ChatGPT thường được đánh giá Amazing, nhưng cũng thường nhận đánh giá Bad

Sự thống trị của ChatGPT thậm chí còn trở nên rõ ràng hơn khi xem xét 1 bộ 100 truy vấn về coding — trong đó Google thua đến 70%!

Lần này, đã không còn là tiếng thút thít mà bạn nghe thấy nữa. Đó là mùi của 10.000 nhân viên Google đã thay quần mới.

Thắng và thua của ChatGPT

Vậy đâu là nơi ChatGPT cực kì uy tín và đâu là nơi nó vẫn phải hoàn thiện? Cùng xem một số ví dụ.

ChatGPT thắng #1

Truy vấn: Làm cách nào để làm món risotto?

Ý định: Tôi muốn có hướng dẫn từng bước để làm món cơm Ý cho ngày sinh nhật của vợ.

Đánh giá: ChatGPT tốt hơn.

Kết quả truy vấn 'Cách làm món risotto' trên Google
Kết quả truy vấn ‘Cách làm món risotto’ trên Google
Kết quả truy vấn 'Cách làm món risotto' trên ChatGPT
Kết quả truy vấn ‘Cách làm món risotto’ trên ChatGPT

Giải thích về đánh giá:

“Vấn đề với việc thu được bất kỳ thông tin nấu ăn nào từ Google là bạn chắc chắn sẽ được cung cấp một loạt các liên kết và video về công thức nấu ăn. Mặc dù chúng có thể hữu ích, nhưng không phải ai cũng viết công thức rõ ràng hoặc họ biến mọi chuyện thành một giai thoại lan man vì lợi ích thứ hạng trên công cụ tìm kiếm.

Chatbot không có vấn đề đó.

Tôi thích cách nó quyết định ném một chút tiếng Ý vào cuộc trò chuyện! Nó tạo cảm giác như nó có cá tính, trái ngược với kết quả của Google chỉ là các cột chữ và trang web.

Tôi chắc rằng Google phần lớn là chính xác. Tuy nhiên, có RẤT nhiều thông tin đa dạng trên trang đó đến nỗi tôi chắc chắn một số thông tin không thực tế, không sử dụng được hoặc nói cách khác là có sai sót.

Tôi cảm thấy Chatbot tốt hơn khi đưa ra câu trả lời ngắn gọn mà bất kỳ ai (bao gồm cả tôi) đều có thể hiểu rõ ràng. Chatbot đã tiêu diệt nó một cách tương đối, về mặt định dạng. Thậm chí còn không bằng.”

ChatGPT thắng #2

Truy vấn: Sự khác biệt giữa mưa đá (freezing rain) và mưa tuyết (sleet) là gì?

Ý định: Tôi đang cố nhớ xem sự khác biệt giữa mưa đá và mưa tuyết là gì. Sống ở Oklahoma, đặc biệt là vào mùa đông, tôi nghe những thuật ngữ đó rất nhiều và tôi biết một trong số chúng tồi tệ hơn nhiều so với những thuật ngữ kia vì nó có thể đóng băng trên đường dây điện.

Đánh giá: ChatGPT tốt hơn nhiều.

Trả lời trực tiếp từ ChatGPT, thay vì phải xem xét nhiều bài viết
Trả lời trực tiếp từ ChatGPT, thay vì phải xem xét nhiều bài viết

Giải thích đánh giá:

“Google đã có kết quả tuyệt vời từ các trang web đáng tin cậy. Tôi đã có thể tìm thấy câu trả lời cho truy vấn của mình.

Tuy nhiên, AI đã đưa ra một câu trả lời ngắn gọn, súc tích trong vòng vài giây để giải thích sự khác biệt. AI nói rằng mưa đóng băng “đóng băng khi tiếp xúc với các bề mặt” nên tôi biết đó là thứ tôi muốn đề phòng. Tôi đã hỏi AI về cơn mưa đá làm đứt đường dây điện và AI xác nhận rằng điều đó có thể xảy ra.

Tôi thích phản hồi rất nhanh thay vì nhấp vào kết quả từ Google và đọc lướt các bài báo để biết thông tin.”

ChatGPT thắng #3

Truy vấn: Cách tạo nút đầu và nút tạm thời cho danh sách liên kết đôi trong C

Mục đích: Trong khóa học software engineering, tôi đã học về danh sách liên kết kép và cần biết cách tạo nút đầu và nút tạm thời cho danh sách liên kết kép.

Đánh giá: ChatGPT tốt hơn nhiều.

Kết quả truy vấn về Double linked list trên Google
Kết quả truy vấn về Double linked list trên Google
Kết quả truy vấn về Double linked list trên ChatGPT
Kết quả truy vấn về Double linked list trên ChatGPT

Giải thích về đánh giá:

“AI cung cấp các bước về toàn bộ chủ đề ở định dạng ngắn gọn, súc tích và đơn giản hóa. Google đã cung cấp một liên kết tương tự với các hình minh họa, nhưng lần này có một số quảng cáo gây phiền nhiễu.

Toàn bộ giao diện đàm thoại của OpenAI thực sự hấp dẫn và giúp việc học trở nên dễ dàng và thú vị hơn. Với AI, tôi có thể thu hẹp tìm kiếm của mình để có được kết quả cụ thể mà tôi cần, nhưng điều này không phải lúc nào cũng có thể thực hiện được với Google vì Google liên tục đưa ra các liên kết bên ngoài giống nhau chứa hầu hết các từ khóa phù hợp trong tìm kiếm của tôi.”

ChatGPT thắng #4

Truy vấn: Cách tính toán số lớp mà một dầm lvl cần cho ngôi nhà tải tuyết một tầng

Mục đích: Tôi đang có kế hoạch loại bỏ một bức tường chịu lực khỏi ngôi nhà và tôi cần biết loại dầm nào sẽ đủ để hỗ trợ kết cấu. Tôi đang tìm kiếm một câu trả lời đơn giản giúp tôi hiểu rõ hơn về các quy tắc xây dựng xung quanh dầm đỡ và cách tiếp tục dự án một cách an toàn.

Đánh giá: ChatGPT tốt hơn nhiều.

Truy vấn cách tính số lớp dầm lvl trên Google
Truy vấn cách tính số lớp dầm lvl trên Google
Truy vấn cách tính số lớp dầm lvl trên ChatGPT
Truy vấn cách tính số lớp dầm lvl trên ChatGPT

Giải thích về xếp hạng:

“Mặc dù Google cung cấp cho tôi lượng thông tin phong phú, điều này cuối cùng đã dẫn tôi đến câu trả lời hữu ích, ChatGPT đã đơn giản hóa kết quả mà tôi đang tìm kiếm.

Đối với truy vấn cụ thể này, Google có xu hướng phức tạp hóa quá mức ý tưởng tổng thể của câu hỏi đang được hỏi.

Mặt khác, ChatGPT đã làm rất tốt việc cung cấp cho tôi thông tin hữu ích tương tự theo cách dễ hiểu hơn; nó tóm tắt những điểm chính cần thiết để nghiên cứu sâu hơn và cho tôi một điểm xuất phát tốt để tiếp tục nghiên cứu.

Mặc dù về tổng thể, Google đã cung cấp thêm một chút thông tin xung quanh chủ đề này, nhưng tôi nghĩ ChatGPT hoạt động tốt hơn do cách nó quyết định định dạng câu trả lời.”

ChatGPT thua #1

Truy vấn: Cách tìm kiếm các tweet từ một ngày cụ thể trên twitter

Ý định: Tôi muốn tìm hiểu những bước tôi cần thực hiện để tìm kiếm các bài đăng trên Twitter được thực hiện vào một ngày dương lịch cụ thể (tức là 01-01-2022). Tôi muốn tìm hiểu cách sử dụng chức năng tìm kiếm nâng cao của Twitter để nó chỉ hiển thị cho tôi các tweet được thực hiện vào ngày cụ thể đó.

Đánh giá: Google tốt hơn nhiều.

Tìm tweet trên Twitter vào 1 ngày cụ thể trên Google
Tìm tweet trên Twitter vào 1 ngày cụ thể trên Google
Tìm tweet trên Twitter vào 1 ngày cụ thể trên ChatGPT
Tìm tweet trên Twitter vào 1 ngày cụ thể trên ChatGPT

Giải thích về đánh giá:

“Phản hồi của ChatGPT không chính xác khi nói rằng bạn phải “đi tới trang chủ Twitter và nhấp vào nút “Tùy chọn khác” ở góc trên cùng bên phải của trang.” Nút “tùy chọn khác” không thể truy cập được từ trang chủ của Twitter; bước đầu tiên là nhập truy vấn vào thanh tìm kiếm của Twitter, tại thời điểm đó, bạn có thể nhấp vào “Tùy chọn khác” hoặc “Tìm kiếm nâng cao”.

Phản hồi ChatGPT cũng nói rằng việc tìm kiếm các tweet chỉ bằng thanh tìm kiếm của Twitter “có thể không cho phép bạn tìm kiếm các tweet theo ngày.”

Trên thực tế, có thể tìm kiếm các tweet theo ngày bằng thanh tìm kiếm của Twitter sử dụng định dạng “since:yyyy-mm-dd / until:yyyy-mm-dd”.

Google cung cấp thông tin này và về tổng thể, sự trợ giúp của nó rộng rãi và chính xác hơn của AI.”

ChatGPT thua #2

Truy vấn: làm thế nào để trích dẫn một cuốn sách ở định dạng mla

Mục đích: Mục đích truy vấn của tôi là tìm hiểu cách trích dẫn một cuốn sách bằng cách sử dụng các nguyên tắc về định dạng và phong cách của Hiệp hội Ngôn ngữ Hiện đại. Tôi muốn biết tôi cần đưa thông tin gì vào trích dẫn MLA cho một cuốn sách và viết thông tin đó theo trình tự nào. Tôi cũng cần biết cách định dạng trích dẫn MLA.

Đánh giá: Google tốt hơn nhiều.

Giải thích về đánh giá:

“Phản hồi AI có một vài điểm không chính xác. Nó nói rằng một trong những thông tin cần thiết để viết trích dẫn MLA cho một cuốn sách là “(các) số trang bạn đang trích dẫn (nếu có).” Nếu một người đang viết trích dẫn MLA cho một cuốn sách mà họ cần chỉ định số trang mà họ đang trích dẫn (tức là nếu họ chỉ trích dẫn một chương, một tác phẩm từ tuyển tập các tác phẩm, v.v.), thì họ phải chỉ định tiêu đề của phần họ đang trích dẫn. Phản hồi của AI không đề cập đến điều này và trích dẫn ví dụ mà nó cung cấp là không chính xác vì lý do này.

Phản hồi của AI cũng đặt tiêu đề của cuốn sách trong dấu ngoặc kép, nhưng nó phải được in nghiêng.

Phản hồi của AI không đề cập đến nhu cầu chỉ định thành phố xuất bản của sách trong nhiều trường hợp. Phản hồi AI định dạng tên tác giả không chính xác; nó phải được định dạng là [Họ], [Tên].

Cuối cùng, phản hồi của AI đặt tên cuốn sách trước tên tác giả, nhưng tên tác giả phải đứng trước.

Phản hồi của Google chính xác hơn nhiều so với phản hồi của AI.

Tôi thích định dạng phản hồi của AI – cụ thể là thực tế là nó cung cấp một trích dẫn ví dụ ngay lập tức – nhưng nó quá thiếu chính xác để có giá trị.”

ChatGPT thua #3

Truy vấn: Brian Griffin là loại chó gì?

Mục đích: Cố gắng tìm ra giống chó mà nhân vật hư cấu Brian Griffin trong sê-ri Chàng trai gia đình được cho là giống chó nào

Đánh giá: Google tốt hơn nhiều.

Brian Griffin la giống chó nào, tìm trên Google
Brian Griffin là giống chó nào, tìm trên Google
Brian Griffin la giống chó nào, tìm trên ChatGPT
Brian Griffin la giống chó nào, tìm trên ChatGPT

Giải thích về đánh giá:

“Google thực sự đã truy xuất câu trả lời đúng. Brian đã được xác nhận là Labrador Retriever trong tập 1.

Còn chat AI tuyên bố rằng không có cách nào để biết Brian là giống gì vì anh ấy là hư cấu.

Giao diện đàm thoại ổn, nhưng tôi cảm thấy AI hơi thô lỗ, mặc dù tôi biết đó không phải là ý định.

Chat AI “Không rõ Brian là giống chó gì, vì nó là một nhân vật hư cấu chứ không phải chó thật.” khiến tôi cảm thấy câu hỏi của mình thật ngu ngốc và không đáng để AI dành thời gian trả lời.”

ChatGPT thua #4

Truy vấn: ETF nào trước đây mang lại ROI cao hơn?

Ý định: Mục đích tìm kiếm của tôi là xác định các quỹ ETF trước đây mang lại tỷ lệ hoàn vốn cao nhất. Điều đó sẽ cho phép tôi xác định chính xác một quỹ ETF mà tôi có thể đầu tư vào.

Đánh giá: Google tốt hơn nhiều.

ETF có ROI cao hơn, tìm trên Google
ETF có ROI cao hơn, tìm trên Google
ETF có ROI cao hơn, tìm trên ChatGPT
ETF có ROI cao hơn, tìm trên ChatGPT

Giải thích về xếp hạng:

“Google đã cung cấp cho tôi danh sách các quỹ ETF hàng đầu nhưng không chỉ định chính xác cho tôi danh sách nào có ROI cao nhất.

ChatGPT đã cho tôi một số lời khuyên tài chính rất hữu ích và khuyên tôi nên thận trọng.

Tuy nhiên, nó từ chối trả lời câu hỏi của tôi vì 2 lý do. Thứ nhất là vì nó không có quyền truy cập vào dữ liệu lịch sử và thứ hai là vì nó được lập trình để không đưa ra lời khuyên tài chính. Tuy nhiên, câu hỏi của tôi không phải là xin lời khuyên mà là để được tiếp cận dữ liệu được ghi chép đầy đủ.”

Các phát hiện về ChatGPT so với Google

Nói tóm lại, Surger thích những điều sau về ChatGPT:

Ưu điểm ChatGPT

  • Khả năng tổng hợp thông tin từ nhiều nguồn khác nhau thành một tổng thể duy nhất, mạch lạc – giống như trợ lý công cụ tìm kiếm, cá nhân của bạn!
  • Giao diện tối thiểu của nó – không còn phải cuộn qua 13 quảng cáo trước khi bạn đến công thức món risotto của mình.
  • Nó có khả năng hiểu các truy vấn phức tạp – chẳng hạn như nhận ra rằng “núi lửa đang hoạt động lớn nhất ở lục địa Hoa Kỳ” nên loại trừ các núi lửa ở Hawaii.

Tất nhiên, họ cũng bày tỏ sự tiêu cực:

Nhược điểm ChatGPT

  • Ảo giác và không chính xác – tất cả được thể hiện dưới hình thức rất tự tin, thuyết phục.
  • Tất nhiên, đôi khi, hình ảnh, video và tweet rất quan trọng – Internet có rất nhiều phương tiện là có lý do!

Chúng tôi cũng đã hỏi các Surger để biết thông tin chi tiết sau khi họ tương tác với ChatGPT trong vài ngày.

Surger #1

“ChatGPT rất hữu ích trong việc loại bỏ nhu cầu truy cập nhiều trang web để có câu trả lời hoàn chỉnh. Tôi đã hỏi bot những câu hỏi liên quan đến các chương trình như LaTeX (Làm cách nào để vẽ biểu đồ hàm theo từng phần trong LaTeX?) và Canva (Làm cách nào để thêm văn bản vào hình ảnh trong Canva?). Câu trả lời trong ChatGPT hay hơn và chi tiết hơn câu trả lời mà Google cung cấp!”

Surger #2

“Tôi đã hỏi ChatGPT một số câu trả lời liên quan đến cổ phiếu và kinh tế. Tôi thấy các câu trả lời đầy đủ hơn so với hộp kiến thức (Knowledge box) mà Google cung cấp cho cùng một câu hỏi. Nó có cùng một lượng thông tin mà tôi sẽ tìm thấy sau khi nhấp vào kết quả hàng đầu của Google.”

Surger #3

“Tôi rất thích Google cho mọi thứ. AI phải vật lộn với bất cứ thứ gì không phải là kiến ​​thức phổ biến. Tôi hỏi nó biết gì về Seven Stones Reef và nó nói rằng nó không biết về một nơi như vậy. Tôi không thể nói cho tôi biết Tracy Chapman đã giành giải Grammy bao nhiêu lần. Tôi đã hỏi nó về những tòa nhà khác có cùng phong cách với The Barbican và nó cho tôi biết tên của những tòa nhà có phong cách hoàn toàn khác như Nhà hát Opera Sydney và một tòa nhà bằng kính và gỗ ở Cardiff, xứ Wales. Khi tôi hỏi thêm thông tin về Nhà hát Opera Sydney, nó đã cho tôi một phong cách hoàn toàn khác vẫn còn sai và sau đó từ chối sửa chữa nó. Nó có thể cho tôi biết thác Iguazu cũng như Tracy Chapman đến từ đâu nhưng khi tìm kiếm thêm thông tin về cả hai điều đó, nó không có nhiều thông tin. Do thiếu câu trả lời chính xác, tôi không ấn tượng và sẽ không sử dụng nó trên một công cụ tìm kiếm ở trạng thái hiện tại.”

Surger #4

“Khía cạnh của ChatGPT mà tôi thích là chức năng trả lời câu hỏi đơn giản. Vâng, nó có thể bị hạn chế, nhưng đôi khi khi bạn đang tìm kiếm câu trả lời cho một câu hỏi, bạn không cần hàng trăm loại câu trả lời giống nhau. Một là đủ để có hiểu biết cơ bản. Tôi nghĩ rằng các từ và định nghĩa hoạt động tốt trong ChatGPT. Tôi cũng tìm thấy câu trả lời đơn giản cho “Căn bậc hai của 9 là gì” một câu trả lời đơn giản hay và giải thích đơn giản. Trường hợp Google khi được hỏi cùng một câu hỏi, đã hiển thị máy tính và trả lời “3”, nhưng sau đó là một số liên kết giải thích căn bậc hai. Tôi thấy chúng phức tạp hơn nhiều so với câu trả lời đơn giản từ Chat.”

Mối đe dọa hiện hữu của Google

Tất nhiên, có hàng triệu chi tiết trong việc xây dựng một công cụ tìm kiếm cần thiết để thu hút người dùng Google. Là một nền tảng AI nói chung, bản thân OpenAI có lẽ không quan tâm!

Nhưng công nghệ bây giờ đã ra khỏi đó. 24 năm chuyên môn về tìm kiếm của Google đã bị lật đổ bởi một công nghệ mới mà ngay cả những công ty khởi nghiệp nhỏ cũng sẽ sớm có thể sử dụng.

Các công cụ tìm kiếm mới hơn như Neeva, You.com, Kagi và Bing đã di chuyển nhanh hơn, với quyền tự do khám phá các sản phẩm và giao diện người dùng mới mà Google không thể. Trong một số lĩnh vực, trải nghiệm tìm kiếm được mô phỏng lại mà họ đang xây dựng đã đánh bại hiệu suất của Google!

Hãy tưởng tượng các mô hình AI thông minh như của Google – hoặc thông minh hơn! – trong những đôi tay đói khát hơn, tập trung vào sản phẩm hơn của họ.

Google được cho là công ty trí tuệ nhân tạo sát thủ; trong một thời gian, nó đúng là vậy. Nhưng với các mô hình ngôn ngữ biến đổi đang chạy đua về phía trước, liệu triều đại của nó – và sự thống trị với tư cách là công cụ tìm kiếm thông minh nhất thế giới – sắp bị soán ngôi?

Nguồn: Surgehq.ai

Categories
Gambaru News

Các nhà nghiên cứu đã “chuyên chở” thành công GẤP ĐÔI lưu lượng truy cập Internet toàn cầu trong 1s

Bằng khoảng 230.000 GB được chuyển đi trong một giây, với một con chip.

6 Tháng sau khi các nhà nghiên cứu từ Viện Công nghệ Thông tin và Truyền thông Quốc gia Nhật Bản (NICT) lập kỷ lục truyền dữ liệu mới là 1,02 petabit/giây, một nhóm các nhà nghiên cứu từ Đại học Kỹ thuật Đan Mạch và Đại học Công nghệ Chalmers ở Thụy Điển đã phá vỡ kỷ lục đó, đạt tốc độ 1,84 Pbit/s bằng một con chip mới chỉ sử dụng một tia laser duy nhất.

Con số này tương đương với việc chuyển đi “gấp đôi tổng lưu lượng truy cập Internet toàn cầu”, chỉ trong một giây.

Mặc dù chúng ta hiện có kết nối internet tại nhà đủ nhanh để truyền phát nội dung video chất lượng như phim chiếu rạp ở độ phân giải cao hơn 4K, nhưng vẫn còn rất nhiều điều cần cải thiện khi nói đến tốc độ internet nói chung, vì bất kỳ ai cũng phải đợi vài giờ để tải một tựa game xuống thiết bị chơi game tân tiến. Internet vẫn không thể cung cấp mọi thứ chúng ta cần trong nháy mắt, nhưng vẫn có tia sáng cuối đường hầm: cụ thể là tia laser hồng ngoại chiếu xuống một bó cáp quang.

Giống như việc mở rộng dung lượng của đường cao tốc bằng cách thêm nhiều làn đường hơn (nhân tiện, việc này không làm giảm lưu lượng truy cập), tốc độ internet có thể tăng lên bằng cách thêm nhiều cáp hơn để truyền dữ liệu. Nhưng việc nâng cấp liên tục dung lượng của internet theo cách đó là không khả thi.

Các nhà nghiên cứu đang nghiên cứu các cách để cải thiện cách thức cơ sở hạ tầng hiện có chuyển dữ liệu hiệu quả hơn, đó là điều làm cho nghiên cứu phá kỷ lục này thậm chí còn ấn tượng hơn.

Theo chi tiết trong một bài báo được xuất bản gần đây trên tạp chí Nature Photonics, nhóm nghiên cứu đã phát triển một chip quang học mới có chức năng như một thứ gọi là lược tần số (frequency comb).

Ánh sáng từ một nguồn laze hồng ngoại duy nhất đi vào chip, nơi nó được phân tách thành phổ cầu vồng gồm hàng trăm màu khác nhau. Mỗi màu có thể được mã hóa bằng dữ liệu bằng cách điều chỉnh ba thuộc tính cụ thể của từng tần số: biên độ, pha và độ phân cực. Hàng trăm tần số được điều chế đặc biệt đó sau đó được kết hợp lại thành một chùm tia duy nhất, được truyền xuống một sợi cáp quang, rồi được giải mã ở đầu bên kia.

Trong các thử nghiệm, nhóm đã truyền thành công dữ liệu bằng kỹ thuật này với tốc độ 1,84 petabit/giây thông qua một sợi cáp quang gồm 37 lõi trên khoảng cách 7,9 km.

Nói một cách dễ hiểu, nếu bạn đủ may mắn để có kết nối cáp quang đến nhà của mình cung cấp tốc độ internet 1 gigabit hoặc thậm chí 10 gigabit, thì kỷ lục này tương đương với việc có kết nối 1.840.000 gigabit đến nhà bạn. Hẳn là bạn không muốn ISP của mình tính phí quá cước.

Tuy nhiên, kỷ lục thế giới mới này có vẻ như vẫn còn ‘rùa bò’ so với những gì mà các nhà nghiên cứu tin tưởng về mặt lý thuyết về tiềm năng của phương pháp chip đơn mới này, vì nó cũng có khả năng mở rộng cao. Tốc độ truyền dữ liệu có thể lên tới 100 Pbit/s, tương đương với 12.500 TB hoặc 12.500.000 GB dữ liệu được truyền mỗi giây.

Có chăng đang có một danh sách chờ chúng ta ghi tên mình vào đó?

Nguồn: Gizmodo

Categories
Gambaru News

Gamba Upcoming Technical Events

Can’t wait to see you at the upcoming Technical events in December 2022 and January 2023! After 12 issues, Gamba continues to help you grow by delivering quality content at our best.

Take a look at the event list below and click on the title that you want to attend! All events will be hosted online via Zoom.


Dec 3, 2022 - Online via Zoom

Build A Great Data Platform

Mr. Thang Le – Data Engineering Architect @EOG Resources
Mr. Hiep Nguyen – Product Manager @Filum.ai

(Registration link to be updated).

In this event, we’ll be shared knowledge about Data platform under view from a Product Manager and a Technical Architect. This is also an exciting event for those who are Back-end engineers, Data engineers or Data analysts are in struggle in data platforms, a great opportunity to chat with our 2 speakers and discuss more on this interesting topic!


Dec 17, 2022 - Online via Zoom

Deploy An AI Model

Mr. Hung Ngo – Founder & CEO of CoTAI

(Registration link to be updated).

Deploying AI models at scale is one of the most important challenges for engineers, as models get more complex, it’s only getting harder. A few new architectures and products can help you. Understand the struggle, Mr. Hung Ngo will share with you how he did it as an AI Engineer.


Dec 21, 2022 - Online via Zoom

JavaScript Frameworks

Mr. Hau Nguyen – Founder of Easy Front-end

(Registration link to be updated).

Join us to know the difference between React.js and Vue.js, and how to become a Front-end developer from scratch.


Jan 10, 2023 - Online via Zoom

Blockchain career – What to do in frozen time?

(Registration link to be updated).

It’s no longer a $1 trillion market. In a drastic set of events, the total market capitalization for crypto has slid to $870 billion in just a few short days.

We witnessed the fall of the trillion-dollar empire – FTX, Bored Ape prices are down… So what should Blockchain engineers do now? In this very hot topic, let’s meet Quan IT, who is specialized in Blockchain will give you his view on all this chaos and advice on the Blockchain engineer roadmap.

Categories
Gambaru News

Magic Eden (chợ NFT) tích hợp với Polygon để phát triển blockchain gaming

Chợ NFT, Magic Eden đang tích hợp với Polygon, blockchain lớp 2 mở rộng Ethereum để tìm hiểu sâu hơn về blockchain gaming và hệ sinh thái NFT, cả 2 đã công bố vào thứ Ba.

Magic Eden thông báo tích hợp với Polygon, đẩy mạnh Blockchain gaming
Magic Eden thông báo tích hợp với Polygon, đẩy mạnh Blockchain gaming

Zhuoxun Yin, đồng sáng lập và COO của Magic Eden, cho biết: 

“Chúng tôi rất vui mừng được tích hợp với Polygon và tiếp tục theo đuổi tương lai đa chuỗi (multi-blockchain) cho Magic Eden. Bằng sự tích hợp này, chúng tôi đang tiếp tục loại bỏ mọi rào cản dành riêng cho chuỗi và mở rộng NFT cho đại chúng.”

Việc mở rộng nhằm cung cấp cho Magic Eden khả năng hỗ trợ hệ sinh thái của các nhà phát triển và nhà sáng tạo trò chơi của Polygon. Mạng Polygon lưu trữ một số dự án và nhà xuất bản trò chơi web3 lớn nhất như Ubisoft, Atari, Animoca Brands, Decentraland, Sandbox, và nhiều cái tên khác.

Polygon tập trung vào Ethereum, gần đây cũng đã gây chú ý khi hợp tác với các công ty phi tiền điện tử như Instagram, Stripe, Disney, Starbucks và Robinhood để tích hợp công nghệ web3 vào các doanh nghiệp.

Yin cho biết:

“Việc tích hợp sẽ cho phép chúng tôi đưa thêm nhiều thương hiệu toàn cầu và người dùng mới vào thị trường NFT, đồng thời tiếp tục đưa các trò chơi web3 đến với công chúng. Polygon đã đưa nhiều thương hiệu được công nhận vào web3, mở ra cánh cổng cho người dùng mới khám phá nhiều tiện ích của NFT.”

Trên website của mình, mạng lưới Polygon cho biết đã hỗ trợ hơn 37.000 ứng dụng phi tập trung (dApps) và đã có khoảng 1,8 tỷ tổng số giao dịch được xử lý. Việc mở rộng với Polygon có thể cung cấp cho Magic Eden khả năng khai thác hệ sinh thái của nó và ngược lại.

Công ty cho biết sau khi ra mắt vào tháng 9 năm 2021, Magic Eden đã trở nên phổ biến khá nhanh. Trung bình có khoảng 10 triệu phiên người dùng duy nhất mỗi tháng và có hơn 20.000 NFT được giao dịch hàng ngày — ngay cả trong bối cảnh thị trường suy thoái. Vào tháng 6, Magic Eden đã huy động được 130 triệu đô, nâng mức định giá của mình lên 1,6 tỷ đô.

Tình hình của Magic Eden đang rất là triển vọng. Ảnh: Twitter
Tình hình của Magic Eden đang rất là triển vọng. Ảnh: Twitter

Đến nay, nền tảng của Magic Eden có tổng khối lượng giao dịch NFT hơn 2,5 tỷ đô.

Nhìn chung, theo dữ liệu của CryptoSlam, thị trường NFT gần đây không tăng trưởng vì tổng doanh số NFT đã giảm hàng tháng liên tiếp kể từ tháng 4. Tuy nhiên, dữ liệu cho thấy trong 30 ngày qua, doanh số Ethereum NFT tăng khoảng 26%, trong khi doanh số Solana NFT giảm gần 20%. Trong khoảng thời gian đó, Polygon vượt trội so với cả blockchain Ethereum và Solana với mức tăng 71% về khối lượng bán NFT.

Yin cho biết: 

“Việc chúng tôi tham gia vào Polygon sẽ bao gồm bệ phóng (launchpad) và thị trường (marketplace), cả hai sẽ ra mắt vào tháng tới và đơn giản hóa quy trình cho người sáng tạo và người sưu tập NFT.

Các bệ phóng tiền điện tử (crypto launchpad) hay còn gọi là vườn ươm tiền điện tử và là nền tảng cho phép xây dựng các dự án tập trung vào web3 trong một mạng chuỗi khối được chỉ định. Trong trường hợp của Magic Eden, bệ phóng thị trường NFT của nó là một chuỗi chéo (cross-chain) trên Solana, Ethereum hoặc cả hai và chịu trách nhiệm cho 90% tổng khối lượng NFT dựa trên Solana.

Theo một tuyên bố, việc tích hợp sẽ tập trung vào việc cung cấp các công cụ cho người sáng tạo bao gồm launchpad và marketplace được liên kết với mã thông báo gốc (native token) của Polygon, MATIC. Các nhà phát triển trò chơi như BORA được hỗ trợ bởi Kakao Games, IntellaX, nWay, Block Games, Boomland, Planet Mojo và Taunt Battleworld đã cam kết với Launchpad của Magic Eden với Polygon.

Yin cho biết về lâu dài, sự hợp tác giữa Magic Eden và Polygon nhằm mục đích đưa nhiều nhà phát triển trò chơi và trò chơi NFT ra thị trường hơn.

Cho đến nay, Magic Eden đã đưa hơn 100 trò chơi ra thị trường trên các chuỗi khối lớp 1 Solana và Ethereum, ông nói thêm. 

“Mặc dù chúng tôi vẫn đang trong giai đoạn đầu áp dụng hàng loạt trò chơi blockchain, nhưng chúng tôi tin rằng Magic Eden có thể gia tăng giá trị ở đây.”

Từ: TechCrunch

Categories
Gambaru News

Kẻ trộm đánh cắp Genshin Impact Fan Art bằng A.I, mặt dày đòi công đạo với người sáng tạo

Một trình tạo nghệ thuật AI cho phép kẻ trộm ‘hoàn thành’ ảnh vẽ kỹ thuật số cả trước khi người sáng tạo bắt đầu đăng nó.

Trước giờ, tôi không nghĩ rằng mình đã từng chứng kiến ​​những vụ trộm nghệ thuật như thế này.

Một fan hâm mô của Genshin Impact đang vẽ một tác phẩm mới trên Twitch. Trước khi người này có thể hoàn thành fanart và đăng nó lên Twitter, một trong những khán giả đã đưa sản phẩm chưa thành hình đó vào một trình tạo AI (AI generator) và “hoàn thành” nó trước.

Sau khi nghệ sĩ đăng tác phẩm hoàn chỉnh của mình, kẻ trộm này đã lên tiếng đòi công đạo (credit) với người nghệ sĩ ban đầu.

Kẻ lừa đảo trơ trẽn tweet: “Anh đăng sau tôi tầm 5-6 tiếng, và đối với kiểu vẽ đó, anh có thể làm nhanh nó. Anh đã tham khảo từ ảnh AI thì ít nhất phải thừa nhận nó chứ.”

AT là một nghệ sĩ anime người Hàn, người hay stream video quá trình xử lý trên Twitch. Vào ngày 11 tháng 10, AT đã vẽ Raiden Shogun từ Genshin Impact trước khán giả.

Sau đó, một người dùng Twitter có nick là Musaishh đã lấy sản phẩm vẫn còn trong quá trình xử lý, và tạo một hình ảnh tương tự của Raiden Shogun bằng Novel AI và sau đó tải lên 6 giờ trước khi buổi stream của nghệ sĩ kết thúc. Chuyện không có gì to tát nếu gã không cố gắng tấn công AT vì đã đăng tác phẩm của gã.

Musaishh đã xóa tài khoản của mình. Có lẽ là vì rất nhiều người hâm mộ và nghệ sĩ đã phát bực với hành vi trộm cắp nghệ thuật trắng trợn đó.

Kể từ khi phần mềm đằng sau các tác phẩm do AI tạo ra trở thành xu hướng, các nghệ sĩ bằng xương bằng thịt đã phải vật lộn để duy trì quyền kiểm soát các tác phẩm của họ.

Giờ đây, họ phải quan tâm đến việc chứng minh rằng mình chính là người sáng tạo của tác phẩm. Đáp lại sự cố, một nghệ sĩ đã nhắc nhở khán giả của mình hãy lưu giữ video stream quá trình thực hiện của họ. Một số nghệ sĩ đã tweet rằng họ không muốn phát trực tiếp lại tiến trình công việc của mình.

Một nghệ sĩ viết:

“Giờ đây, bất kỳ ai trong chúng ta đều có thể bị những kẻ trộm nghệ thuật cáo buộc là‘ ăn cắp’ vì AI của họ ‘ hoàn thành’ tác phẩm trước”

Nếu bạn đã theo dõi web này trong vài tháng qua, bạn có thể thấy rằng tranh vẽ do AI tạo ra là một quả mìn đạo đức.

Phần mềm lấy dữ liệu từ tác phẩm nghệ thuật có bản quyền mà người sáng tạo ban đầu không biết hoặc chưa cho phép và cố gắng tạo ra một hình ảnh mới từ đó.

Tôi hơi lạc lõng trong số những người thưởng thức nghệ thuật ở chỗ tôi nghĩ bản thân công nghệ có tiềm năng hấp dẫn để tạo ra nghệ thuật có đạo đức với sự cho phép của người sáng tạo.

Nhưng chừng nào các nghệ sĩ không được pháp luật bảo vệ chống lại việc nghệ thuật của họ bị đánh cắp và lừa gạt một cách vô đạo đức, thì ngày đó vẫn còn lâu mới diễn ra.

Mà này, tôi muốn kết thúc bài viết này với một lưu ý tích cực. Đây là bức tranh gốc của Raiden Shogun để bạn thưởng thức:

Tham khảo: Kotaku.com

Categories
Gambaru News

Fermyon huy động 20 triệu USD, làm tool cho lập trình viên ứng dụng đám mây

Matt Butcher và Radu Matei đã làm về công nghệ container trong nhiều năm; “container” trong ngữ cảnh này đề cập đến các gói phần mềm chứa tất cả các yếu tố cần thiết để chạy trong bất kỳ môi trường nào, từ máy tính để bàn đến máy chủ.

2 Nhà sáng lập của Fermyon
2 Nhà sáng lập của Fermyon

Với vai trò kỹ sư tại Deis, tiếp theo là DeisLabs sau khi Microsoft được mua lại vào năm 2017, nhóm của họ đã khám phá lĩnh vực container và đã thành công xây dựng trình quản lý package Helm cũng như Brigade và các công cụ khác.

Trong suốt quá trình đó, họ phải đối mặt với vô số vấn đề với các container – cụ thể là tốc độ và chi phí.

Những thất bại đã thúc đẩy họ và một số ‘cựu binh’ DeisLabs khác thành lập Fermyon, công ty hôm nay đã khép lại vòng tài trợ Series A trị giá 20 triệu đô do Insight Partners dẫn đầu với sự tham gia của Amplify Partners và các nhà đầu tư thiên thần.

Fermyon cung cấp Fermyon Cloud, dịch vụ đám mây được quản lý, cho phép các nhà phát triển nhanh chóng xây dựng các microservices hoặc các phần ứng dụng hoạt động độc lập nhưng cùng nhau (ví dụ: nếu một microservice bị lỗi, nó sẽ không làm hỏng các microservice khác).

Fermyon Technologies
Fermyon Technologies

Butcher đề cập đến tiêu chuẩn mở cho phép trình duyệt web chạy mã nhị phân:

“Fermyon đang xây dựng làn sóng dịch vụ đám mây tiếp theo trên đỉnh WebAssembly. Ban đầu được viết cho trình duyệt, WebAssembly có tất cả những điểm nổi bật của một nền tảng điện toán đám mây xuất sắc… Sự kết hợp các tính năng của nó khiến chúng tôi rất phấn khích. Fermyon bắt đầu xây dựng một bộ công cụ cho phép các nhà phát triển xây dựng, triển khai và sau đó vận hành các tệp nhị phân WebAssembly trong bối cảnh đám mây ”.

Butcher lập luận rằng WebAssembly vượt trội hơn container ở một số khía cạnh, chẳng hạn như thời gian khởi động và khả năng tương thích trên các hệ điều hành bao gồm Windows, Linux và Mac cùng với các nền tảng phần cứng như Intel và Arm.

Ông cũng khẳng định rằng nó an toàn hơn vì nó có thể thực thi một cách an toàn ngay cả những mã không đáng tin cậy.

Để khám phá tiềm năng thay thế vùng chứa của WebAssembly, Fermyon đã phát triển Spin, một công cụ dành cho nhà phát triển mã nguồn mở để tạo các ứng dụng đám mây của WebAssembly.

Fermyon Cloud là sự phát triển của công việc này, cung cấp một nền tảng nơi khách hàng có thể lưu trữ các ứng dụng đó.

Butcher nói:

“Fermyon Cloud trao quyền cho các nhà phát triển triển khai… các ứng dụng được viết bằng nhiều ngôn ngữ khác nhau (chẳng hạn như Rust, .NET, Go, JavaScript) và trải nghiệm hiệu suất cực nhanh. Bất kỳ ai có tài khoản GitHub có thể tạo các ứng dụng WebAssembly trên đám mây… Mô hình tự phục vụ của nhà phát triển giảm thiểu sự khó khăn trong việc xây dựng ứng dụng bằng cách giúp các nhà phát triển không chỉ có thể viết và kiểm tra mã của họ trong môi trường sản xuất – và sau đó triển khai phiên bản hoàn chỉnh cho cùng môi trường được lưu trữ đó.

Fermyon Cloud cho phép các nhà phát triển tạo tối đa 5 ứng dụng web hoặc microservices và chạy chúng trong môi trường được lưu trữ miễn phí. Ngoài các ứng dụng lưu trữ, dịch vụ này cung cấp quản lý phát hành, truy cập nhật ký và cấu hình ứng dụng từ bảng điều khiển web.

Với các nhân viên hiện ở Châu Âu, Châu Á, Úc và Bắc Mỹ, trọng tâm của Fermyon là tiếp tục xây dựng các dự án thương mại và nguồn mở của mình, Butcher nói.

Fermyon Cloud sẽ mở rộng sang cung cấp dịch vụ thương mại “sẵn sàng cho doanh nghiệp” trong những tháng tới, ông nói thêm, vì Fermyon dự kiến ​​sẽ tăng gấp đôi số nhân viên 20 người vào giữa năm 2023 – nhấn mạnh vào sản phẩm, tiếp thị, quan hệ với nhà phát triển và vai trò cộng đồng.

Butcher cho biết:

“Chúng tôi có vị trí tốt để chống chọi với những cơn bão kinh tế vĩ mô do nguồn tài chính mà chúng tôi sẽ công bố hôm nay. Chúng tôi có nguồn quỹ để tồn tại vài năm.”

Đến nay, Fermyon có trụ sở tại Colorado đã huy động được 26 triệu đô la.

Nguồn: TechCrunch