Có những hạn chế khi phát sóng cuộc sống của chính mình với tư cách là một streamer. Không chỉ những kẻ troll và những kẻ thù ghét, mà cả nỗ lực to lớn cần thiết để duy trì hình ảnh trước công chúng, đặc biệt là khi nói đến giao dịch và cơ quan quyền lực của bạn sẽ giải quyết vụ việc của bạn quá muộn vào ban đêm. Đây là lý do tại sao nhiều người phát trực tuyến hiện đang đóng vai trò là nhân vật ảo hoặc VTuber.
Trước đây, việc số hóa con người rất khó khăn và tốn kém. Khi tôi báo cáo về sự ảo hóa của nam diễn viên Robin Wright trong Hội nghị trở lại năm 2014, phải mất hơn 150 đèn LED và nhiều cảnh LightStage của Canon EOS 1D Mark III tại Viện Công nghệ Sáng tạo USC để chụp được hình dạng của cô ấy. Ngày nay, điện thoại, webcam và gói phần mềm có thể giúp người phát trực tiếp phát hoạt ảnh, tạo mô hình 2D/3D, gian lận khuôn mặt, đồng bộ hóa âm thanh và ghi lại hiệu suất.
Để tìm hiểu cách thực hiện, chúng tôi đã nói chuyện với hai người sáng tạo quản lý các nhân vật dựa trên hình đại diện của họ trực tuyến: Lavender (Mở trong một cửa sổ mới) và Syafire (Mở trong một cửa sổ mới)—những người có cách tiếp cận hơi khác nhau về cách chuyển đổi từ một thực đến không thực.
Gặp gỡ các chuyên gia VTuber của chúng tôi
Syafire (phát âm là “sapphire”) đã trở thành VTuber vào năm 2020 sau vài năm phát trực tuyến trên các nền tảng như Twitch. Ngoài kênh YouTube của riêng mình, nơi cô ấy thực hiện các giao dịch thương hiệu, cô ấy còn tổ chức YouTube cho HTC Vive, một Huấn luyện viên phát trực tuyến(Mở trong một cửa sổ mới) giúp những người khác xây dựng sự nghiệp với tư cách là nhân vật ảo trong thế giới kỹ thuật số và một họa sĩ minh họa tự do (sẽ mở trong một cửa sổ mới).
Syafire khởi nghiệp “với tư cách là một người truyền phát nghệ thuật, phát trực tuyến các khoản hoa hồng và bài tập về nghệ thuật của cô ấy trong khi lấy bằng thiết kế đồ họa từ Flashpoint Chicago,” cô nói. “Sau đó, tôi chuyển đến một trường cao đẳng địa phương để học chuyên ngành phát triển trò chơi và sau đó chuyển sang trường trực tuyến Academy of the Art Industry để học chuyên ngành phát triển trò chơi, tập trung vào nghệ thuật khái niệm.
Vào tháng 9 năm 2020, Syafire bắt đầu quan tâm đến bối cảnh mới ra đời của người có ảnh hưởng ảo sau khi xem Miko Code(Mở cửa sổ mới) sử dụng Unreal Engine(Mở cửa sổ mới) để tạo hình đại diện nhập vai thực tế. Bị mê hoặc bởi công nghệ này, Syafire quyết định học cách làm việc với những công cụ sẵn có.
Mang theo khán giả của mình (cô ấy gọi họ là “đá quý”) của mình, cô ấy đã phát hành video ở trên theo thời gian thực, hướng dẫn chi tiết cách trở thành một VTuber. Hướng dẫn này đã khởi đầu sự nghiệp của Safire với tư cách là người sáng tạo nội dung toàn thời gian và hiện cô ấy đã có hơn 23.000 người đăng ký chỉ riêng trên YouTube.
Haley Newsom, hay còn gọi là Lavender Town, là một họa sĩ vẽ tranh minh họa, thiết kế nhân vật, hoạt hình và truyện tranh tự do có trụ sở tại Los Angeles. “Tôi đã từng là Thành phố hoa oải hương trên YouTube (opens in a new window) nhiều năm trước và tôi luôn tránh xuất hiện quá nhiều khuôn mặt của mình trong các video của mình, vì vậy tôi nghĩ mình là người tự nhiên sẽ đánh giá cao công nghệ của VTuber,” cô nói.
“Lúc đầu, tôi chỉ bị mê hoặc bởi các mô hình của VTuber từ góc độ nghệ thuật, vì tôi thích tạo ra các thiết kế nhân vật hoạt hình, vì vậy tôi thực sự thích quy tắc về sự tinh tế trong thiết kế của các VTuber nổi tiếng.” LavenderTowne quyết định tìm hiểu cách vào lãnh thổ của VTuber và thực hiện một loạt video bắt đầu từ clip trên.
Cả hai người sáng tạo đều nói rằng ẩn danh trực tuyến đang được giải phóng. Cyfire nói: “Trở thành một người có ảnh hưởng ảo mang lại cho người sáng tạo đằng sau nó cơ hội trải nghiệm nhân vật và thế giới theo cách chưa từng có trước đây. “Và cũng đạt được sự nổi tiếng mà không cần thay đổi cuộc sống cá nhân của bạn giống như cách đã xảy ra với những người nổi tiếng hiện tại và trong quá khứ.”
Thị trấn hoa oải hương đồng ý. “Khi nói đến phát trực tuyến, tôi nghĩ mô hình VTuber phù hợp với cá nhân tôi. Nó hấp dẫn về mặt hình ảnh hơn nhiều so với phát trực tuyến mà không có camera trước và việc ngồi lại và trò chuyện với cộng đồng của tôi dễ dàng hơn nhiều mà không phải lo lắng về ánh sáng, trang điểm và tóc.
“Thật kỳ lạ, nó cảm thấy tự nhiên hơn nhiều so với việc ‘sử dụng’ khuôn mặt thật của tôi,” cô nói.
Tạo nhân vật của bạn
Nếu bạn muốn tạo hình đại diện của riêng mình, quy trình sẽ bắt đầu bằng việc tạo nhân vật của bạn, đồng bộ hóa nhân vật đó với biểu cảm khuôn mặt của con người (gian lận), đưa mô hình vào nền tảng phần mềm phát trực tuyến, sau đó phát hành trực tuyến. Nó đơn giản hóa. Nhưng đây là cách cả hai người sáng tạo đã trải qua quy trình làm việc đó và những gì họ khám phá được trong quá trình đó.
Syafire đã tạo sinh vật ảo của mình bằng VRoid Studio(Opens in new window) – bạn có thể xem hướng dẫn của cô ấy ở trên. Nếu bạn đã từng trải qua quá trình tạo hình đại diện ảo của riêng mình để chơi hoặc tham gia metaverse, thì bạn sẽ quen thuộc với quy trình này.
Chọn màu tóc, hình dạng mắt, đường nét trên khuôn mặt, lựa chọn quần áo, số đo cơ thể, v.v. cho đến khi hình đại diện của bạn có được vẻ ngoài như mong muốn. Chương trình cho phép bạn tạo một mô hình 3D độc đáo, sau đó có thể sử dụng mô hình này trên bất kỳ nền tảng nào.
Nếu bạn muốn dành hàng giờ để thử nghiệm độ rộng cổ áo, kết cấu, tai yêu tinh và công cụ chải cho những phần tóc gợn sóng cụ thể, thì tất cả đều có ở đó. Nếu bạn muốn bắt đầu nhanh chóng, hãy chọn một mẫu, thực hiện các sửa đổi cơ bản và bạn đã hoàn tất.
Vì Lavender Town là một họa sĩ minh họa chuyên nghiệp nên cô ấy muốn tạo nhân vật của mình từ đầu bằng cách sử dụng các bức vẽ của chính mình chứ không phải mô hình 3D. “Tôi đã sử dụng Live2D (opens in a new window) cho việc này,” cô giải thích. “Nhiều VTuber sử dụng Live2D để tạo nhân vật hoạt hình chuyển động theo thời gian thực mà không cần mô hình 3D và tôi thấy điều đó rất thú vị.”
Hướng dẫn của cô ấy, như được hiển thị ở trên, cho thấy việc tạo mô hình 2D từ các hình minh họa riêng lẻ tốn nhiều công sức như thế nào, xuất chúng dưới dạng tệp PSD, sau đó cài đặt mô hình trong Live2D Cubism. Nhưng ít nhất thì bạn cũng có được niềm vui khi tạo ra một nhân vật ảo chính thức ngay từ nét đầu tiên của cây bút kỹ thuật số.
Trang bị cho mô hình của bạn
Khi mô hình 3D của bạn đã sẵn sàng, bạn cần khớp chuyển động của nhân vật với chuyển động của chính mình. Trong hướng dẫn Syafire, cô ấy xuất hình đại diện của mình và sau đó nhập mô hình vào một công cụ chụp chuyển động. Trong video, cô ấy sử dụng 3tene(Opens in a new window) nhưng cũng có thể sử dụng các tùy chọn khác.
Syafire hiện khuyên dùng VSeeFace (opens in a new window) “vì nó tương thích với phần mềm bên thứ ba có tên là Virtual Motion Capture (opens in a new window), nơi bạn có thể nhận được tính năng theo dõi khuôn mặt nâng cao hơn nếu mô hình VRM của bạn được định cấu hình với sự kết hợp bổ sung hình dạng cần thiết trong một chương trình mô hình 3D. Sau đó, bạn sử dụng VSeeface để nhập mô hình và cuối cùng là ứng dụng iFacialMocap(Mở trong cửa sổ mới) để theo dõi tính năng theo dõi khuôn mặt nâng cao của bạn.”
(Ảnh: Syafire)
Tuy nhiên, nếu bạn muốn dùng thử 3tene, nó sẽ định vị mô hình trong không gian 3D, sau đó lấy dữ liệu từ webcam để thiết lập tính năng theo dõi khuôn mặt và lập bản đồ chuyển động mắt cho hình ảnh phản chiếu kỳ lạ. 3tene cũng đồng bộ hóa âm thanh nhép và Ultrajump(Mở trong một cửa sổ mới), bạn có thể mở rộng bộ điều khiển tay để mô hình 3D cũng hiển thị chuyển động cơ thể nếu bạn đặc biệt biểu cảm bằng cử chỉ tay.
Cyfire nói: “Tôi là người có cử động tay rất nặng. “Tôi sử dụng rất nhiều nét mặt và ngôn ngữ cơ thể khi nói. Không cần chi hàng nghìn đô la cho phần cứng cao cấp, việc có được các nhân vật và mô hình biểu cảm phù hợp là có thể, nhưng rất khó. Tôi mong muốn được chứng kiến sự phát triển hơn nữa của công nghệ ghi lại chuyển động để tiếp tục biến điều này thành trải nghiệm sống động nhất có thể cho cả người sáng tạo và người tiêu dùng.”
Đây là cài đặt cơ bản để khớp (mô hình) ảo với (người) thực. 3tene cũng có các tùy chọn chuyển động bổ sung nếu bạn muốn có một bản thân ảo thực hiện các cú đá karate hoặc thay đổi nét mặt của hình đại diện để tăng thêm chiều sâu cho nhân vật.
Được giới thiệu bởi các biên tập viên của chúng tôi
Bước cuối cùng là thay đổi cài đặt nền sân khấu thành “Màu tùy chỉnh” rồi thành “Trong suốt” để tận dụng các tính năng xây dựng thương hiệu phía sau hình đại diện.
LavenderTowne đã đi một con đường khác trong việc tạo ra sinh vật ảo của họ. “Sau khi tạo nhân vật, tôi đã sử dụng VTube Studio(Opens in a new window) bằng máy ảnh iPhone của mình và nó hoạt động rất tốt,” cô nói.
Để làm theo cách này, bạn cần có iPhone và nền tảng thực tế tăng cường ARKit (opens in a new window) của Apple. Sau khi máy ảnh phát hiện khuôn mặt, phần mềm sẽ tạo lớp phủ lưới có tọa độ để cho biết vị trí của mắt, miệng, mũi, v.v.
Khi ánh xạ giữa khuôn mặt người và lưới hoàn tất, người tạo có thể kích hoạt nhân vật hoạt hình. Nếu bạn muốn xem thành phẩm trông như thế nào, hãy xem video trên.
Tương lai phức tạp, thiết lập phức tạp
Quá trình tạo ra một con người số hóa bao gồm nhiều bộ phận chuyển động phức tạp. Mặc dù có thể thực hiện những sửa đổi tối thiểu để làm cho một nhân vật ảo trở nên sống động, nhưng hầu hết mọi người sẽ muốn tìm hiểu sâu hơn. Điều này có nghĩa là cần phải khám phá nhiều nền tảng và thậm chí mua thêm phần cứng.
Giống như hầu hết những người phát trực tiếp chuyên nghiệp, Syafire sử dụng OBS Studio mã nguồn mở để tạo, chỉnh sửa và phân phối các luồng của họ trên nhiều nền tảng. Và mặc dù phần lớn công việc khó khăn có thể được thực hiện bằng phần mềm miễn phí, nhưng phần mô tả video của cô ấy bao gồm danh sách webcam, micrô và nhiều đề xuất khác.
Nó cũng đề xuất sử dụng Stream Deck thay vì máy tính để bàn để điều khiển hình đại diện, cho phép bạn ánh xạ các biểu cảm khác nhau tới các nút cụ thể và cho phép bạn đặt trước tâm trạng, hoạt ảnh, v.v. để tăng cảm giác đắm chìm.
Tuy nhiên, mong muốn đầu tư nhiều thời gian và tiền bạc hơn khi thiết lập của bạn phức tạp hơn. “Nếu bạn muốn đưa mô hình của mình lên một tầm cao mới như Mã Miko hoặc AI Angel(Mở trong một cửa sổ mới) thì đó là một vấn đề khác và bạn sẽ cần phải làm việc trên các công cụ trò chơi như Unity (mở trong một cửa sổ mới) và Unreal Engine cũng như các ứng dụng của bên thứ ba như Virtual Motion Capture.”
Nhưng rất nhiều công việc đã được thực hiện để làm cho những công nghệ này dễ tiếp cận hơn. LavenderTown cho biết: “Tôi nghi ngờ những thách thức kỹ thuật khi xây dựng các mô hình VTuber này là lý do chính khiến nhiều người mất một thời gian để bắt đầu sử dụng.
“Bây giờ đã có các mô hình 3D làm sẵn để mọi người tùy chỉnh, công nghệ PNGtuber nên tất cả những gì bạn cần là một hoặc hai bản vẽ và có nhiều hướng dẫn hơn bằng nhiều ngôn ngữ cho những ai muốn tự mình thử. ” , rất có thể sẽ có sự bùng nổ của các VTuber mới.”
“Nhìn chung, đó là một quy trình làm việc dài,” Syafire nói thêm, “nhưng đó là một trong những khoảnh khắc bổ ích nhất mà bạn từng thấy nhân vật của mình trở nên sống động và kết nối với bạn.”