Năm 2021, Runway Research kết hợp với đại học Munich phát triển mô hình machine learning tên là Stable Diffusion, một trong những thuật toán AI đầu tiên biến câu đề bài trở thành hình ảnh. Sản phẩm mới nhất của Runway là Gen-1, chỉ cần một câu đề bài hoặc một hình ảnh làm mẫu, thuật toán sẽ tạo ra cả một đoạn video clip cho người dùng.
Nếu anh em thấy Stable Diffusion quen quen, thì chủ quản AI này đang bị đơn vị nắm bản quyền hình ảnh Getty Images kiện vì cho rằng quá trình huấn luyện thuật toán này đã vi phạm bản quyền hàng triệu hình ảnh của Getty: https://tinhte.vn/thread/getty-images-kien-nha-phat-trien-ai-vi-vi-pham-ban-quyen-hang-trieu-buc-anh-chup.3625324/
Runway Research giải thích công dụng của Gen-1, rằng thuật toán này có thể tự chế biến những video clip mới theo cách vừa chân thực vừa chất lượng. Nó làm được như vậy nhờ vào “đề bài” dưới dạng chữ viết hoặc hình tĩnh. Nói cách khác, Gen-1 có thể làm phim “mà không phải quay gì hết.”
Gen-1 có 5 chế độ vận hành. Đầu tiên là Stylization, chuyển phong cách từ hình mẫu hoặc câu đề bài vào từng khung hình của đoạn video, hiểu đơn giản là làm kỹ xảo theo ý tưởng của người dùng. Storyboard biến hình tĩnh thành video hoạt hoạ. Mask cho phép tách chủ thể rồi biến đổi cử động theo yêu cầu người dùng. Render biến hình mẫu hoặc chữ viết thành mô hình hoạt hoạ cử động được. Cuối cùng, ở chế độ Customization, người dùng sẽ được tuỳ chỉnh mô hình của đoạn video. Đó là tính năng mô tả toàn bộ sức mạnh của AI Gen-1.
Mô hình machine learning của Gen-1 không mới, cũng không phải AI tự tạo video đầu tiên có mạt trên thị trường. Bản thân các tập đoàn lớn cũng đã có thuật toán làm video, ví dụ Make-a-Video của Meta, Phenaki của Google, hay Muse. Nhưng mô hình ML của Gen-1 tạo ra chiều sâu rõ ràng, phục vụ cả người chuyên nghiệp lẫn không chuyên.
Thực tế thì Runway cũng không thiếu kinh nghiệm làm thuật toán tạo video. Những công cụ của họ thậm chí còn được sử dụng cho những clip đăng trên các dịch vụ trực tuyến như TikTok và YouTube. Ứng viên Oscar năm nay, Everything Everywhere All At Once của hãng phim A24, dưới bàn tay của đạo diễn kỹ xảo Evan Halleck, cũng đã sử dụng công cụ machine learning của Runway (trong cảnh mô tả “chiều không gian” toàn những viên đá).
Gen-1 là kết quả của quá trình nghiên cứu ấy, được Runway phát triển và phục vụ nhu cầu làm video, hậu kỳ cũng như kỹ xảo hình ảnh. Dự kiến Gen-1 trong vài tuần nữa sẽ mở cửa cho mọi người dùng thử, còn hiện tại mới chỉ một số ít được mời sử dụng thử công cụ AI này.
Theo Techspot
Nếu anh em thấy Stable Diffusion quen quen, thì chủ quản AI này đang bị đơn vị nắm bản quyền hình ảnh Getty Images kiện vì cho rằng quá trình huấn luyện thuật toán này đã vi phạm bản quyền hàng triệu hình ảnh của Getty: https://tinhte.vn/thread/getty-images-kien-nha-phat-trien-ai-vi-vi-pham-ban-quyen-hang-trieu-buc-anh-chup.3625324/

Getty Images kiện nhà phát triển AI vì vi phạm bản quyền hàng triệu bức ảnh chụp
Đây là động thái mới nhất trong cuộc chiến của những người làm công việc sáng tạo, content creator với những nhà phát triển trí thông minh nhân tạo. Getty Images, đơn vị nắm giữ bản quyền hàng trăm triệu triệu tấm hình chụp từ rất nhiều nhiếp ảnh…
tinhte.vn
Runway Research giải thích công dụng của Gen-1, rằng thuật toán này có thể tự chế biến những video clip mới theo cách vừa chân thực vừa chất lượng. Nó làm được như vậy nhờ vào “đề bài” dưới dạng chữ viết hoặc hình tĩnh. Nói cách khác, Gen-1 có thể làm phim “mà không phải quay gì hết.”
Gen-1 có 5 chế độ vận hành. Đầu tiên là Stylization, chuyển phong cách từ hình mẫu hoặc câu đề bài vào từng khung hình của đoạn video, hiểu đơn giản là làm kỹ xảo theo ý tưởng của người dùng. Storyboard biến hình tĩnh thành video hoạt hoạ. Mask cho phép tách chủ thể rồi biến đổi cử động theo yêu cầu người dùng. Render biến hình mẫu hoặc chữ viết thành mô hình hoạt hoạ cử động được. Cuối cùng, ở chế độ Customization, người dùng sẽ được tuỳ chỉnh mô hình của đoạn video. Đó là tính năng mô tả toàn bộ sức mạnh của AI Gen-1.
Mô hình machine learning của Gen-1 không mới, cũng không phải AI tự tạo video đầu tiên có mạt trên thị trường. Bản thân các tập đoàn lớn cũng đã có thuật toán làm video, ví dụ Make-a-Video của Meta, Phenaki của Google, hay Muse. Nhưng mô hình ML của Gen-1 tạo ra chiều sâu rõ ràng, phục vụ cả người chuyên nghiệp lẫn không chuyên.
Thực tế thì Runway cũng không thiếu kinh nghiệm làm thuật toán tạo video. Những công cụ của họ thậm chí còn được sử dụng cho những clip đăng trên các dịch vụ trực tuyến như TikTok và YouTube. Ứng viên Oscar năm nay, Everything Everywhere All At Once của hãng phim A24, dưới bàn tay của đạo diễn kỹ xảo Evan Halleck, cũng đã sử dụng công cụ machine learning của Runway (trong cảnh mô tả “chiều không gian” toàn những viên đá).
Gen-1 là kết quả của quá trình nghiên cứu ấy, được Runway phát triển và phục vụ nhu cầu làm video, hậu kỳ cũng như kỹ xảo hình ảnh. Dự kiến Gen-1 trong vài tuần nữa sẽ mở cửa cho mọi người dùng thử, còn hiện tại mới chỉ một số ít được mời sử dụng thử công cụ AI này.
Theo Techspot