Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Nans returned after get_image_features #39

Open
frangosentado opened this issue Oct 14, 2024 · 6 comments
Open

Nans returned after get_image_features #39

frangosentado opened this issue Oct 14, 2024 · 6 comments

Comments

@frangosentado
Copy link

frangosentado commented Oct 14, 2024

EDIT: I have just found out that the code works in Google Collab but not in my local Jupyter notebook. I am running on a Macbook Air M2. Could this issue be related to this (not having a GPU for example)?

Hey. I have been having a tough time trying to fix this. When I run this code:

from fashion_clip.fashion_clip import FashionCLIP
from PIL import Image

fclip = FashionCLIP('fashion-clip')

image = Image.open("imagens_teste/imagem1.JPG").convert("RGB")
encoding = fclip.encode_images([image],batch_size=1)
print(encoding)

It outputs me with:
[[nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan nan
nan nan nan nan nan nan nan nan]]

Here is what I've tried so far:
1 - Casting the model to model.float() to only use f32
2- Set the model to evaluation mode with .eval()
3- Checking for Nans after pre-processing is made (there are none)
4- Checking model weights (everything fine)

I have changed the model to openai/clip-vit-base-patch32 just to test, and the embedding worked as expected. What else can I try? Is there anything in particular with this model that I should take into account?

@vinid
Copy link
Collaborator

vinid commented Oct 15, 2024

Yea the issue could be that. But I am surprised it does not load the model on CPU in that case.

Here we load it as CPU if it cuda is not available
https://github.com/patrickjohncyh/fashion-clip/blob/master/fashion_clip/fashion_clip.py#L105

@frangosentado
Copy link
Author

I saw this, but there seems to be a compatibility error still. I can’t figure out where. I will check with another colleague to see if the problem is with Apple Sillicon specifically.

@basilesportif
Copy link

Any resolution here?

@julesale
Copy link

julesale commented Nov 6, 2024

i have the same issue with a mac m2

@jakelaws1
Copy link

same issue for me as well with a mac

@silviatti
Copy link

Hi, if you downgrade the transformers library to version 4.42.4 (pip install transformers==4.42.4) it should fix the issue. I still haven't figure out the cause but I noticed that the NaNs start to appear at this line, after the pre_layrnorm.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

6 participants