Skip to content

使用OpenCV+onnxruntime部署中文clip做以文搜图,给出一句话来描述想要的图片,就能从图库中搜出来符合要求的图片。包含C++和Python两个版本的程序

Notifications You must be signed in to change notification settings

hpc203/Chinese-CLIP-opencv-onnxrun

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

17 Commits
 
 
 
 
 
 
 
 

Repository files navigation

OpenAI发布的Clip是一个基于图像和文本并行的多模态模型,CLIP模型的效果实现了图像和文本向同一个特征空间映射的能力。 当进行图像识别时,我们将待识别的图像映射成一个特征向量。同时我们将所有的类别文本转换成一个句子,然后将这个句子映射成另外一组特征向量。

文本特征向量和图像特征向量最相近的那一个便是我们要识别的目标图像的类。 Clip的玩法有很多种: (1). 将图像与类别文本相比较,以得到最接近的分类结果。 (2). 对于给定的输入文本和图片相册,在文本与图片相册中找到最匹配的结果。 (3). 对于图像生成模型,结合生成结果与输入文本间的 CLIP 距离生成更好的图片。例如,扩散模型里面就用到了clip。 (4). 利用 CLIP encoding 提取特征,以该特征的映射结果结合 GPT2 生成 caption。 (5).搜索相似图片。

这里面我最感兴趣的是第二项:给出一句话来描述想要的图片,就能从图库中搜出来符合要求的。现在市场上已经有这个功能的软件了,例如这里 https://github.com/mazzzystar/Queryable

在github上clip部署的程序,文本都是英文的,于是我就想着编写一套中文clip的图文检索程序。 图像模块和文本模块的onnx文件在百度云盘,链接:https://pan.baidu.com/s/18eBA19kMqdJpP5muV9V18w 提取码:d30y

这套程序有C++和Python两个版本的,其中在编写C++程序时,遇到了一个坑。起初在win10系统里,编写完代码之后编译运行, 发现在TokenizerClipChinese里,切割中文字符串里的每个汉字时,出现了乱码,后来把程序放在ubuntu系统运行,就不会出现中文乱码了。 切割中文字符串里的每个汉字的函数split_chinese,代码来自这里 Shellbye/Shellbye.github.io#27 从上面才到的这个坑,可以看出函数split_chinese,只适用于linux系统,在win10系统会出现乱码的。 并且还需要注意,在使用std::filesystem时,需要指定c++17来编译的。本仓库里的C++程序,需要放在ubuntu系统编译运行,才能得到正确的结果。

程序很简陋,感兴趣的开发者可以添加一个图形界面,显示输入文字和图库中搜出来符合要求的图片,这样看起来更直观。 此外,保存特征特征向量和计算特征向量之间的相似性,可以使用faiss库,它的速度非常快,是毫秒级的。因为在真实世界里的相册, 很有可能相册里的图片数量是百万级甚至是亿级的。

About

使用OpenCV+onnxruntime部署中文clip做以文搜图,给出一句话来描述想要的图片,就能从图库中搜出来符合要求的图片。包含C++和Python两个版本的程序

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published