QiQi

Results 13 comments of QiQi

需要安装lapack sudo apt-get install liblapack-dev

> @lz100 请问中文标签是如何实现的,能共享一下代码吗? 改下label就好了吧 https://github.com/AIZOOTech/FaceMaskDetection/blob/master/pytorch_infer.py#L27

@cgf120 Did you solve the problem ? Maybe this is a way to avoid using normal_ in GFPGAN : ```python # noise = out.new_empty(b, 1, h, w).normal_() noise = torch.randn_like(out.new_empty(b,...

https://github.com/mindslab-ai/hififace

Thanks a lot for your response. It is very helpful to understand the paper better. Some questions about dataset: - **4.1** The size of **Celebrity-Asian** and **VGG-Face2** are much more...

@forrest-lam https://github.com/quqixun/gpupixel_pywrapper 我尝试做了一个使用 SourceRawDataInput 和 TargetRawDataOutput 的 python wrapper 。

@rjc7011855 Try https://github.com/YudongGuo/AD-NeRF/tree/master/data_util/deepspeech_features and try to make speech features in shape [8, 16, 29].

@xz0305 It is quite simple to get 68 landmarks using dlib. http://dlib.net/files/shape_predictor_68_face_landmarks.dat.bz2 ```python import cv2 import dlib import numpy as np class LandmarksExtractor(object): def __init__(self, model_path): self.detector = dlib.get_frontal_face_detector() self.predictor...

@979277 训练了一些epoch,下面是一些效果。 [difftalk_demo.zip](https://github.com/sstzal/DiffTalk/files/12390359/difftalk_demo.zip) 我这经过预处理之后总共有400+段视频片段,作者只给了训练集的视频名称,没有给测试集的,所以我就直接随机分了数据集。 由于训练过程中内存占用不断增加(看最上面的问题描述),经过多次实验,最终每个视频使用前1100帧(间隔一帧取一帧)用作训练和测试。difftalk_demo.zip 里的视频是测试集中的视频,使用连续的前720帧做的测试。可以看到还是有点效果的。 后面的实验我打算减少视频数量,使用每个视频的所有帧。使用那种同一个视频可以截取出多个视频片段的数据,其中一个片段作为测试集,其他视频作为训练集,再训练看看效果。 训练过程中没有验证集,只有测试集,最终的测试效果也是在测试集上观察的,可能有数据泄露的风险。作者应该也是这么搞得。

@xz0305 You can use [youtube-dl](https://github.com/ytdl-org/youtube-dl) or [yt-dlp](https://github.com/yt-dlp/yt-dlp) to download videos with best quality both in video and audio channel.