clip vision model
clip_vision_g.safetensors 3.43GB in SwarmUI is superior to this 2year old l-model or what?
Hi, thank you for mentioning CLIP. Yes, we actually trained our IP adapter with OpenAI VIT CLIP large, we have updated the link to the CLIP model
Hi, thank you for mentioning CLIP. Yes, we actually trained our IP adapter with OpenAI VIT CLIP large, we have updated the link to the CLIP model
Анжела, но я же не об этом спросил. Доступна Clip модель новее и в 2раза "толще", не лучше использовать её в пайплайнах? Возможно ли это?
Hi, thank you for mentioning CLIP. Yes, we actually trained our IP adapter with OpenAI VIT CLIP large, we have updated the link to the CLIP model
Анжела, но я же не об этом спросил. Доступна Clip модель новее и в 2раза "толще", не лучше использовать её в пайплайнах? Возможно ли это?
Спасибо за предложение, обязательно учтем, в следующей версии будет именно он
Может эта новая clip модель и с текущей вашим адаптером совместима, но это надо пробовать-сравнивать, поэтому спросил на всякий случай.
а про какую именно ты говоришь?