The Model move betwwen languages
I've discovered that this model doesn't always respond in English, and if your query isn't very explicit, it might respond in another language.I had encountered this twice.
Example>>> LLAMA research team
LLAMA (Large Language Models and Application) Research Team является группой ученых и разработчиков, которые работают над созданием и изучением крупных языковых моделей. Они известны своим вклад
область больших языковых моделей, включая разработку формата безопасного сохранения (Safetensors), который был представлен в исследовательской статье и направлен на эффективное хранение и передач
огромных языковых моделей.
LLAMA Research Team связан с Hugging Face, компанией, которая разрабатывает инструменты и библиотеки для машинного обучения и естественно-языкового программирования. Ллама-модели доступны через Hugging
Face Model Hub и могут быть легко использованы с помощью фреймворков, совместимых с PyTorch или TensorFlow, таких как Transformers от Hugging Face.
На протяжении последних нескольких лет LLAMA Research Team публикует исследования и разработки по крупным языковым моделям в академических журналах и конференциях. Они также участвуют в
стандартов и методов для обучения и использования языковых моделей, что способствует повышению качества и доступности таких моделей для научных исследований и приложений.
Если у вас есть вопросы или запросы, связанные с LLAMA Research Team или Safetensors, я буду рад помочь вам ответить на них и предоставить дополнительную информацию, если она потребуется.
Для получения дополнительной информации об LLAMA Research Team и их проектах вы можете посетить официальный сайт Hugging Face или обратиться к научным статьям и конференциям, упомя^C
May I ask if you're using the default chat template? (GPT4 Correct User: Hello! GPT4 Correct Assistant:) The model with a wrong chat template will perform very poorly.
Another possibility is to try a lower temperature, our testing suggests that temperature 0 might be slightly better than 0.7.
You may want to first try a bit on chat.lmsys.org. If you also observe the same issue there, then it'll just be the issue with the model. I actually tried this question a bit. The answer is "I don't have knowledge on that." And then hallucinates some random answers. Seems to be slightly better than what you get (at least it's English lol).
But still yes the model will output weird content in some cases, potentially due to uncareful RLHF. We're still working to fix it in the next version. Please stay tuned!