Theo CNBC, DALL-E là một công nghệ cho phép người dùng tạo hình ảnh kỹ thuật số chỉ đơn giản bằng cách mô tả những gì mình mong muốn nhìn thấy thông qua các mô hình trí tuệ nhân tạo.
DALL-E 2 là thành quả được phát triển của OpenAI - một công ty khởi nghiệp được hỗ trợ bởi gã khổng lồ công nghệ Microsoft.
Trên trang web của mình, OpenAI gọi DALL-E 2 là “một hệ thống AI mới có thể tạo ra hình ảnh và nghệ thuật thực tế từ một mô tả bằng ngôn ngữ tự nhiên”.
Trên thực tế, chỉ một nhóm tương đối nhỏ những người dùng được trải nghiệm việc chia sẻ những hình ảnh được tạo ra từ văn bản vì cho đến thời điểm hiện tại, OpenAI vẫn chưa phát hành hệ thống trên đến với công chúng.
Trong một bài đăng trên trang web của công ty, Joanne Jang của OpenAI cho biết: “Chúng tôi đang làm việc chăm chỉ để tăng tốc độ truy cập, nhưng có thể sẽ mất một khoảng thời gian cho đến khi đến được với tất cả mọi người; kể từ ngày 15 tháng 6, chúng tôi đã mời 10,217 người dùng thử DALL-E”.
Trước đó, một hệ thống đã được công bố rộng rãi có tên là DALL - E Mini, tuy nhiên hệ thống trên thường xuyên bị quá tải do nhu cầu sử dụng quá lớn.
Người dùng thường xuyên được chào đón bằng một hộp thoại với nội dung “Quá nhiều lưu lượng truy cập, vui lòng thử lại”.
Các dịch vụ chuyển văn bản thành hình ảnh rất phức tạp khi phải xác định các phần quan trọng nhất trong văn bản của người dùng sau đó tìm cách để minh họa các thuật ngữ đó.
Google đã đào tạo mô hình Imagen của mình với hàng trăm chip AI nội bộ trên 460 triệu cặp văn bản hình ảnh bên trong, ngoài dữ liệu bên ngoài.
Các giao diện của hệ thống khá đơn giản. Nói chung có một hộp văn bản, một nút để bắt đầu quá trình tạo và một khu vực bên dưới để hiển thị hình ảnh.
Để chỉ ra nguồn, Google và OpenAI thêm hình mờ ở góc dưới cùng bên phải của hình ảnh từ DALL-E 2 và Imagen.
Tuy nhiên, OpenAI nhận ra khả năng gây hại có thể đến từ việc công nghệ này sẽ dễ dàng tạo ra các thông tin sai lệch và khiến mọi người nghi ngờ về tất cả những gì mình thấy trên Internet.
Để giải quyết rủi ro, các nhà phát triển đã xóa nội dung bạo lực khỏi dữ liệu và có các bộ lọc ngăn DALL-E 2 tạo hình ảnh nếu người dùng gửi lời nhắc có thể vi phạm chính sách của công ty về nội dung người lớn, bạo lực, hoặc yếu tố chính trị.
Prafulla Dhariwal, một nhà khoa học nghiên cứu OpenAI cho biết: “Có một quá trình đang diễn ra để cải thiện sự an toàn của các hệ thống này”.
Bất chấp rủi ro, OpenAI rất hào hứng với những thứ mà công nghệ có thể kích hoạt. Dhariwal cho biết công nghệ trên có thể mở ra cơ hội sáng tạo cho các cá nhân và có thể giúp ứng dụng thương mại cho các trang web thiết kế nội thất hoặc trang điểm.
Hiện tại, hệ thống sẽ tiếp tục được cải thiện trong thời gian tới.