Trí tuệ nhân tạo
Trí tuệ nhân tạo sinh (Generative AI): Ý tưởng đằng sau CHATGPT, Dall-E, Midjourney và nhiều hơn

Thế giới nghệ thuật, giao tiếp và cách chúng ta nhận thức về thực tế đang thay đổi nhanh chóng. Nếu nhìn lại lịch sử của sự đổi mới của con người, chúng ta có thể coi việc phát minh ra bánh xe hoặc việc khám phá ra điện là những bước nhảy vĩ đại. Ngày nay, một cuộc cách mạng mới đang diễn ra – bắc cầu giữa sự sáng tạo của con người và tính toán của máy móc. Đó là Trí tuệ nhân tạo sinh (Generative AI).
Các mô hình sinh (Generative models) đã làm mờ ranh giới giữa con người và máy móc. Với sự ra đời của các mô hình như GPT-4, sử dụng các mô-đun biến đổi (transformer modules), chúng ta đã tiến gần hơn đến việc tạo ra ngôn ngữ tự nhiên và phong phú. Những tiến bộ này đã thúc đẩy các ứng dụng trong việc tạo tài liệu, hệ thống đối thoại của rô-bốt trò chuyện và thậm chí là việc tạo nhạc tổng hợp.
Các quyết định gần đây của các công ty công nghệ lớn (Big-Tech) nhấn mạnh tầm quan trọng của nó. Microsoft đã loại bỏ ứng dụng Cortana của mình trong tháng này để ưu tiên các đổi mới Trí tuệ nhân tạo sinh (Generative AI) mới, như Bing Chat. Apple cũng đã dành một phần đáng kể trong $22.6 tỷ ngân sách nghiên cứu và phát triển (R&D) cho Trí tuệ nhân tạo sinh, như đã chỉ ra bởi CEO Tim Cook.
Một Thời Đại Mới Của Các Mô Hình: Sinh (Generative) Vs. Phân Biệt (Discriminative)
Câu chuyện về Trí tuệ nhân tạo sinh không chỉ là về các ứng dụng của nó mà về cơ bản là về cách thức hoạt động bên trong của nó. Trong hệ sinh thái trí tuệ nhân tạo, có hai mô hình tồn tại: phân biệt (discriminative) và sinh (generative).
Các mô hình phân biệt là những gì mà hầu hết mọi người gặp phải trong cuộc sống hàng ngày. Các thuật toán này lấy dữ liệu đầu vào, chẳng hạn như văn bản hoặc hình ảnh, và ghép nó với đầu ra mục tiêu, như bản dịch từ hoặc chẩn đoán y tế. Chúng về việc ánh xạ và dự đoán.
Các mô hình sinh, mặt khác, là những nhà sáng tạo. Chúng không chỉ giải thích hoặc dự đoán; chúng tạo ra các đầu ra phức tạp mới từ các vector số thường không liên quan đến các giá trị thế giới thực.
Công Nghệ Đằng Sau Các Mô Hình Sinh
Các mô hình sinh nợ sự tồn tại của chúng cho các mạng nơ-ron sâu (deep neural networks), các cấu trúc tinh vi được thiết kế để bắt chước chức năng của não bộ con người. Bằng cách bắt và xử lý các biến thể đa dạng trong dữ liệu, các mạng này phục vụ như xương sống của nhiều mô hình sinh.
Làm thế nào mà các mô hình sinh này được tạo ra? Thông thường, chúng được xây dựng với các mạng nơ-ron sâu, được tối ưu hóa để bắt các biến thể đa dạng trong dữ liệu. Một ví dụ điển hình là Mạng Đối Thủ Sinh (Generative Adversarial Network – GAN), nơi hai mạng nơ-ron, bộ sinh (generator) và bộ phân biệt (discriminator), cạnh tranh và học hỏi từ nhau trong một mối quan hệ giáo viên-học sinh độc đáo. Từ tranh vẽ đến chuyển đổi phong cách, từ tạo nhạc đến chơi trò chơi, các mô hình này đang phát triển và mở rộng theo những cách trước đây không thể tưởng tượng được.
Điều này không dừng lại ở GAN. Máy Tự Mã Hóa Biến Giới (Variational Autoencoders – VAEs) là một diễn viên quan trọng khác trong lĩnh vực mô hình sinh. VAEs nổi bật với khả năng tạo ra hình ảnh siêu thực từ những con số ngẫu nhiên. Làm thế nào? Xử lý những con số này thông qua một vector ẩn (latent vector) cho ra đời nghệ thuật phản ánh sự phức tạp của thẩm mỹ con người.
Loại Trí tuệ nhân tạo sinh: Văn bản sang Văn bản, Văn bản sang Hình ảnh
Biến Hình (Transformers) & LLM
Bài báo “Chú ý là tất cả những gì bạn cần” của Google Brain đã đánh dấu một sự thay đổi trong cách chúng ta nghĩ về mô hình hóa văn bản. Thay vì các kiến trúc phức tạp và tuần tự như Mạng Nơ-ron Recurrent (Recurrent Neural Networks – RNNs) hoặc Mạng Nơ-ron Lọc (Convolutional Neural Networks – CNNs), mô hình Biến Hình (Transformer) đã giới thiệu khái niệm về chú ý, vốn基本 là tập trung vào các phần khác nhau của văn bản đầu vào tùy thuộc vào ngữ cảnh. Một trong những lợi ích chính của điều này là sự dễ dàng song song hóa. Không giống như RNNs, chúng xử lý văn bản tuần tự, khiến chúng khó mở rộng, Biến Hình có thể xử lý các phần của văn bản đồng thời, làm cho quá trình đào tạo nhanh hơn và hiệu quả hơn trên các tập dữ liệu lớn.
Trong một văn bản dài, không phải mọi từ hoặc câu bạn đọc đều có cùng mức độ quan trọng. Một số phần đòi hỏi sự chú ý nhiều hơn dựa trên ngữ cảnh. Đây là nơi cơ chế chú ý phát huy tác dụng.
Để hiểu điều này, hãy nghĩ về một câu: “Unite AI xuất bản tin tức AI và Robotics.” Bây giờ, dự đoán từ tiếp theo đòi hỏi phải hiểu những gì quan trọng nhất trong ngữ cảnh trước. Thuật ngữ ‘Robotics’ có thể gợi ý rằng từ tiếp theo có thể liên quan đến một sự tiến bộ hoặc sự kiện cụ thể trong lĩnh vực robotics, trong khi ‘xuất bản’ có thể cho thấy rằng ngữ cảnh tiếp theo có thể đi sâu vào một ấn phẩm gần đây hoặc bài viết.
Cơ chế chú ý trong Biến Hình được thiết kế để đạt được sự tập trung chọn lọc này. Chúng đo lường tầm quan trọng của các phần khác nhau của văn bản đầu vào và quyết định nơi “nhìn” khi tạo ra một phản hồi. Đây là một sự khác biệt so với các kiến trúc cũ hơn như RNNs, những thứ đã cố gắng nén bản chất của tất cả văn bản đầu vào vào một “trạng thái” hoặc “bộ nhớ” duy nhất.
Hoạt động của chú ý có thể được so sánh với một hệ thống thu hồi khóa-giá trị. Khi cố gắng dự đoán từ tiếp theo trong một câu, mỗi từ trước đó cung cấp một “khóa” gợi ý về sự liên quan tiềm năng của nó, và dựa trên mức độ phù hợp của các khóa này với ngữ cảnh hiện tại (hoặc truy vấn), chúng đóng góp một “giá trị” hoặc trọng số cho dự đoán.
Những mô hình học sâu AI tiên tiến này đã tích hợp một cách liền mạch vào các ứng dụng khác nhau, từ việc cải tiến công cụ tìm kiếm của Google với BERT đến GitHub’s Copilot,Harnessing khả năng của Large Language Models (LLMs) để chuyển đổi các đoạn mã code đơn giản thành mã nguồn hoàn chỉnh.
Large Language Models (LLMs) như GPT-4, Bard và LLaMA là những cấu trúc khổng lồ được thiết kế để giải mã và tạo ra ngôn ngữ con người, mã và nhiều hơn nữa. Kích thước khổng lồ của chúng, dao động từ hàng tỷ đến hàng nghìn tỷ tham số, là một trong những đặc điểm định nghĩa. Những LLM này được cho ăn với một lượng lớn dữ liệu văn bản, cho phép chúng nắm bắt được sự tinh tế của ngôn ngữ con người. Một đặc điểm nổi bật của những mô hình này là khả năng “học vài lần (few-shot)” . Không giống như các mô hình thông thường cần một lượng lớn dữ liệu đào tạo cụ thể, LLMs có thể tổng quát hóa từ một số lượng rất hạn chế các ví dụ (hoặc “cú bắn”)
Trạng Thái Của Large Language Models (LLMs) Tính Đến Giữa Năm 2023
| Tên Mô Hình | Phát Triển Bởi | Tham Số | Khả Dụng Trình Duyệt & Truy Cập | Tính Năng & Nhận Xét Nổi Bật |
| GPT-4 | OpenAI | 1.5 Nghìn Tỷ | Không Mở Nguồn, Chỉ Truy Cập API | Hiệu Suất Ấn Tượng Trên Nhiều Nhiệm Vụ, Xử Lý Hình Ảnh & Văn Bản, Chiều Dài Đầu Vào Tối Đa 32.768 Token |
| GPT-3 | OpenAI | 175 Tỷ | Không Mở Nguồn, Chỉ Truy Cập API | Đã Thể Hiện Khả Năng Học Few-Shot & Zero-Shot. Thực Hiện Hoàn Thành Văn Bản Trong Ngôn Ngữ Tự Nhiên. |
| BLOOM | BigScience | 176 Tỷ | Mô Hình Tải Xuống Được, API Chủ Nhà Cung Cấp | Mô Hình Ngôn Ngữ Lớn Đa Ngôn Ngữ Được Phát Triển Bởi Sự Hợp Tác Toàn Cầu. Hỗ Trợ 13 Ngôn Ngữ Lập Trình. |
| LaMDA | 173 Tỷ | Không Mở Nguồn, Không Có API Hoặc Tải Xuống | Được Đào Tạo Trên Đối Thoại, Có Thể Học Để Nói Về Gần Như Bất Kỳ Chủ Đề Nào. | |
| MT-NLG | Nvidia/Microsoft | 530 Tỷ | Truy Cập API Bằng Ứng Dụng | Sử Dụng Kiến Trúc Megatron Dựa Trên Biến Hình Cho Nhiều Nhiệm Vụ Xử Lý Ngôn Ngữ Tự Nhiên. |
| LLaMA | Meta AI | 7B đến 65B) | Tải Xuống Bằng Ứng Dụng | Được Thiết Kế Để Dân Chủ Hóa AI Bằng Cách Cung Cấp Truy Cập Cho Những Người Trong Nghiên Cứu, Chính Phủ & Học Thuật. |
Làm Thế Nào Để Sử Dụng LLMs?
LLMs có thể được sử dụng theo nhiều cách, bao gồm:
- Sử Dụng Trực Tiếp: Sử Dụng Một LLM Đã Được Đào Tạo Sẵn Cho Tạo Văn Bản Hoặc Xử Lý. Ví Dụ, Sử Dụng GPT-4 Để Viết Một Bài Đăng Trên Blog Mà Không Cần Tối Ưu Hóa Thêm.
- Tối Ưu Hóa: Thích Ứng Một LLM Đã Được Đào Tạo Sẵn Cho Một Nhiệm Vụ Cụ Thể, Một Phương Pháp Được Biết Đến Với Tên Chuyển Học (Transfer Learning). Ví Dụ, Tùy Chỉnh T5 Để Tạo Tóm Tắt Cho Các Tài Liệu Trong Một Ngành Cụ Thể.
- Truy Cập Thông Tin: Sử Dụng LLMs, Như BERT Hay GPT, Là Một Phần Của Các Kiến Trúc Lớn Hơn Để Phát Triển Các Hệ Thống Có Thể Tìm Và Phân Loại Thông Tin.
Chú Ý Đa Đầu: Tại Sao Chỉ Có Một Khi Bạn Có Thể Có Nhiều?
Tuy nhiên, dựa vào một cơ chế chú ý duy nhất có thể là hạn chế. Các từ hoặc chuỗi khác nhau trong một văn bản có thể có các loại liên quan hoặc liên kết khác nhau. Đây là nơi chú ý đa đầu (multi-head attention) phát huy tác dụng. Thay vì một tập hợp các trọng số chú ý, chú ý đa đầu sử dụng nhiều tập hợp, cho phép mô hình bắt được nhiều loại mối quan hệ phong phú hơn trong văn bản đầu vào. Mỗi “đầu” chú ý có thể tập trung vào các phần hoặc khía cạnh khác nhau của văn bản đầu vào, và kiến thức kết hợp của chúng được sử dụng cho dự đoán cuối cùng.
ChatGPT: Công Cụ Trí Tuệ Nhân Tạo Sinh Phổ Biến Nhất
Bắt đầu với sự ra đời của GPT vào năm 2018, mô hình này cơ bản được xây dựng trên nền tảng 12 lớp, 12 đầu chú ý và 120 triệu tham số, chủ yếu được đào tạo trên một tập dữ liệu gọi là BookCorpus. Đây là một khởi đầu ấn tượng, cung cấp một cái nhìn về tương lai của các mô hình ngôn ngữ.
GPT-2, được công bố vào năm 2019, đã tăng gấp bốn lần số lớp và đầu chú ý. Đáng kể, số tham số của nó đã tăng vọt lên 1,5 tỷ. Phiên bản này được cải tiến đã được rút ra từ WebText, một tập dữ liệu được làm giàu với 40GB văn bản từ các liên kết Reddit khác nhau.
GPT-3, được ra mắt vào tháng 5 năm 2020, có 96 lớp, 96 đầu chú ý và một số tham số khổng lồ là 175 tỷ. Điều làm cho GPT-3 khác biệt là dữ liệu đào tạo đa dạng của nó, bao gồm CommonCrawl, WebText, Wikipedia tiếng Anh, tập đoàn sách và các nguồn khác, kết hợp cho một tổng cộng 570 GB.
Các chi tiết về cách thức hoạt động của ChatGPT vẫn còn là một bí mật được bảo vệ chặt chẽ. Tuy nhiên, một quá trình được gọi là “học tăng cường từ phản hồi của con người” (reinforcement learning from human feedback – RLHF) được biết đến là then chốt. Xuất phát từ một dự án ChatGPT trước đó, kỹ thuật này đã được sử dụng để tinh chỉnh mô hình GPT-3.5 để phù hợp hơn với các hướng dẫn viết.
ChatGPT’s quá trình đào tạo bao gồm một cách tiếp cận ba cấp:
- Tối Ưu Hóa Có Giám Sát: Liên Quan Đến Việc Tạo Ra Các Đầu Vào Và Đầu Ra Trò Chuyện Được Viết Bằng Tay Để Tinh Chỉnh Mô Hình GPT-3.5 Dưới Bàn.
- Mô Hình Phần Thưởng: Con Người Xếp Hạng Các Đầu Ra Mô Hình Dựa Trên Chất Lượng, Giúp Đào Tạo Một Mô Hình Phần Thưởng Đánh Giá Mỗi Đầu Ra Dựa Trên Ngữ Cảnh Của Trò Chuyện.
- Học Tăng Cường: Ngữ Cảnh Của Trò Chuyện Là Bối Cảnh Nơi Mô Hình Dưới Bàn Đề Xuất Một Phản Hồi. Phản Hồi Này Được Đánh Giá Bằng Mô Hình Phần Thưởng, Và Quá Trình Được Tối Ưu Hóa Sử Dụng Một Thuật Toán Được Gọi Là Tối Ưu Hóa Chính Sách Cận (Proximal Policy Optimization – PPO).
Đối với những người mới bắt đầu tìm hiểu về ChatGPT, một hướng dẫn bắt đầu toàn diện có thể được tìm thấy tại đây. Nếu bạn muốn tìm hiểu sâu hơn về kỹ thuật nhắc (prompt engineering) với ChatGPT, chúng tôi cũng có một hướng dẫn nâng cao về các kỹ thuật nhắc mới nhất và hiện đại, có sẵn tại ‘ChatGPT & Kỹ Thuật Nhắc Nâng Cao: Đẩy Mạnh Sự Tiến Hóa Của Trí Tuệ Nhân Tạo‘.
Khả Dị & Mô Hình Đa Phương Tiện
Trong khi các mô hình như VAEs và GANs tạo ra đầu ra của chúng thông qua một lần đi qua, do đó bị khóa vào bất cứ điều gì chúng tạo ra, các mô hình khuếch tán (diffusion models) đã giới thiệu khái niệm về “tinh chỉnh lặp lại” (iterative refinement). Thông qua phương pháp này, chúng quay lại, tinh chỉnh sai lầm từ các bước trước và dần dần tạo ra một kết quả được tinh chỉnh hơn.
Trung tâm của các mô hình khuếch tán là nghệ thuật “ô nhiễm” (corruption) và “tinh chỉnh” (refinement). Trong giai đoạn đào tạo của chúng, một hình ảnh điển hình bị ô nhiễm dần bằng cách thêm các mức độ nhiễu khác nhau. Phiên bản nhiễu này sau đó được đưa vào mô hình, mô hình cố gắng “làm sạch nhiễu” hoặc “khôi phục” nó. Thông qua nhiều vòng lặp của quá trình này, mô hình trở nên thành thạo trong việc khôi phục, hiểu cả sự thay đổi tinh tế và đáng kể.
Quá trình tạo ra hình ảnh mới sau đào tạo là thú vị. Bắt đầu với một đầu vào hoàn toàn ngẫu nhiên, nó được tinh chỉnh liên tục sử dụng dự đoán của mô hình. Mục đích là đạt được một hình ảnh hoàn hảo với số bước tối thiểu. Kiểm soát mức độ ô nhiễm được thực hiện thông qua một “lịch trình nhiễu” (noise schedule), một cơ chế quản lý mức độ nhiễu được áp dụng tại các giai đoạn khác nhau. Một lịch trình, như được thấy trong các thư viện như “diffusers“, quy định bản chất của những phiên bản nhiễu này dựa trên các thuật toán đã thiết lập.
Một xương sống kiến trúc quan trọng cho nhiều mô hình khuếch tán là U-Net – một mạng nơ-ron lọc được thiết kế cho các nhiệm vụ yêu cầu đầu ra phản ánh chiều không gian của đầu vào. Nó là sự kết hợp của các lớp giảm mẫu và tăng mẫu, được kết nối tinh vi để giữ lại dữ liệu có độ phân giải cao, quan trọng cho đầu ra liên quan đến hình ảnh.
Khi đi sâu vào lĩnh vực của các mô hình sinh, DALL-E 2 của OpenAI nổi lên như một ví dụ nổi bật về sự kết hợp của khả năng AI văn bản và hình ảnh. Nó sử dụng một cấu trúc ba cấp:
- Mã Hóa Văn Bản: Nó chuyển đổi lời nhắc văn bản thành một bản nhúng khái niệm trong không gian ẩn. Mô hình này không bắt đầu từ đầu. Nó dựa trên tập dữ liệu đào tạo trước tương phản ngôn ngữ-hình ảnh (Contrastive Language–Image Pre-training – CLIP) của OpenAI làm nền tảng. CLIP phục vụ như một cầu nối giữa dữ liệu hình ảnh và văn bản bằng cách học các khái niệm hình ảnh sử dụng ngôn ngữ tự nhiên. Thông qua một cơ chế được gọi là học tương phản, nó xác định và khớp hình ảnh với mô tả văn bản tương ứng.
- Trước: Bản nhúng văn bản được dẫn xuất từ mã hóa sau đó được chuyển đổi thành bản nhúng hình ảnh. DALL-E 2 đã thử nghiệm cả phương pháp tự hồi quy và phương pháp khuếch tán cho nhiệm vụ này, với phương pháp sau cho thấy kết quả vượt trội. Các mô hình tự hồi quy, như được thấy trong Biến Hình và PixelCNN, tạo ra đầu ra theo trình tự. Mặt khác, các mô hình khuếch tán, như được sử dụng trong DALL-E 2, biến đổi nhiễu ngẫu nhiên thành bản nhúng hình ảnh dự đoán với sự giúp đỡ của bản nhúng văn bản.
- Giải Mã: Giai đoạn cuối cùng của quá trình, phần này tạo ra đầu ra hình ảnh cuối cùng dựa trên lời nhắc văn bản và bản nhúng hình ảnh từ giai đoạn trước. Bộ giải mã của DALL-E 2 nợ kiến trúc của nó cho một mô hình khác, GLIDE, có thể tạo ra hình ảnh thực tế từ gợi ý văn bản.
Người dùng Python quan tâm đến Langchain nên kiểm tra hướng dẫn chi tiết của chúng tôi, bao gồm mọi thứ từ cơ bản đến các kỹ thuật nâng cao.
Ứng Dụng Của Trí Tuệ Nhân Tạo Sinh
Lĩnh Vực Văn Bản
Bắt đầu với văn bản, Trí tuệ nhân tạo sinh đã được thay đổi cơ bản bởi các rô-bốt trò chuyện như ChatGPT. Dựa nặng vào Xử lý Ngôn Ngữ Tự Nhiên (Natural Language Processing – NLP) và các mô hình ngôn ngữ lớn (Large Language Models – LLMs), những thực thể này được trao quyền để thực hiện các nhiệm vụ từ tạo mã, dịch ngôn ngữ đến tóm tắt và phân tích cảm xúc. ChatGPT, ví dụ, đã chứng kiến sự áp dụng rộng rãi, trở thành một công cụ không thể thiếu cho hàng triệu người. Điều này được tăng cường bởi các nền tảng AI trò chuyện, dựa trên LLMs như GPT-4, PaLM và BLOOM, những nền tảng này một cách dễ dàng tạo ra văn bản, hỗ trợ lập trình và thậm chí cung cấp lý luận toán học.
Từ góc độ thương mại, những mô hình này đang trở nên vô giá. Doanh nghiệp sử dụng chúng cho vô số hoạt động, bao gồm quản lý rủi ro, tối ưu hóa hàng tồn kho và dự báo nhu cầu. Một số ví dụ đáng chú ý bao gồm Bing AI, BARD của Google và API ChatGPT.
Nghệ Thuật
Thế giới hình ảnh đã chứng kiến sự thay đổi đáng kể với Trí tuệ nhân tạo sinh, đặc biệt là kể từ khi DALL-E 2 được giới thiệu vào năm 2022. Công nghệ này, có thể tạo ra hình ảnh từ lời nhắc văn bản, có cả ý nghĩa nghệ thuật và chuyên nghiệp. Ví dụ, midjourney đã tận dụng công nghệ này để tạo ra hình ảnh thực tế ấn tượng. Bài đăng gần đây làm sáng tỏ midjourney trong một hướng dẫn chi tiết, làm rõ cả nền tảng và các chi tiết kỹ thuật của lời nhắc. Hơn nữa, các nền tảng như Alpaca AI và Photoroom AI sử dụng Trí tuệ nhân tạo sinh cho các chức năng chỉnh sửa hình ảnh tiên tiến như xóa nền, xóa đối tượng và thậm chí phục hồi khuôn mặt.
Sản Xuất Video
Sản xuất video, mặc dù vẫn còn trong giai đoạn sơ khai trong lĩnh vực Trí tuệ nhân tạo sinh, đang thể hiện những tiến bộ đầy hứa hẹn. Các nền tảng như Imagen Video, Meta Make A Video và Runway Gen-2 đang đẩy ranh giới của những gì có thể, ngay cả khi đầu ra thực sự vẫn còn trên đường chân trời. Những mô hình này cung cấp tiện ích đáng kể cho việc tạo video kỹ thuật số, với các ứng dụng như Synthesia và SuperCreator dẫn đầu. Đáng chú ý, Tavus AI cung cấp một đề xuất bán hàng độc đáo bằng cách cá nhân hóa video cho từng thành viên khán giả, một lợi ích cho doanh nghiệp.
Tạo Mã
Lập trình, một khía cạnh không thể thiếu của thế giới kỹ thuật số của chúng ta, đã không bị bỏ qua bởi Trí tuệ nhân tạo sinh. Mặc dù ChatGPT là một công cụ được ưa chuộng, nhiều ứng dụng AI khác đã được phát triển cho mục đích lập trình. Những nền tảng này, như GitHub Copilot, Alphacode và CodeComplete, phục vụ như trợ lý lập trình và thậm chí có thể tạo mã từ lời nhắc văn bản. Điều gì thú vị là khả năng thích ứng của những công cụ này. Codex, động lực đằng sau GitHub Copilot, có thể được tùy chỉnh để phù hợp với phong cách lập trình của một cá nhân, nhấn mạnh tiềm năng cá nhân hóa của Trí tuệ nhân tạo sinh.
Kết Luận
Kết hợp sự sáng tạo của con người với tính toán của máy móc, nó đã trở thành một công cụ vô giá, với các nền tảng như ChatGPT và DALL-E 2 đang đẩy ranh giới của những gì có thể. Từ tạo nội dung văn bản đến điêu khắc kiệt tác hình ảnh, ứng dụng của chúng là đa dạng và phong phú.
Như với bất kỳ công nghệ nào, các tác động đạo đức là tối quan trọng. Trong khi Trí tuệ nhân tạo sinh hứa hẹn sự sáng tạo vô tận, điều quan trọng là phải sử dụng nó một cách có trách nhiệm, nhận thức được các偏见 tiềm ẩn và sức mạnh của việc thao túng dữ liệu.
Với các công cụ như ChatGPT trở nên dễ tiếp cận hơn, bây giờ là thời điểm hoàn hảo để thử nghiệm và khám phá. Cho dù bạn là một nghệ sĩ, lập trình viên hay người đam mê công nghệ, lĩnh vực Trí tuệ nhân tạo sinh đầy rẫy những khả năng chờ được khám phá. Cuộc cách mạng không còn trên đường chân trời; nó đã ở đây và bây giờ. Vậy, hãy nhảy vào!


















