Falcon 180B

TII

Falcon 180B er en af de største open-source language models, trænet på 3.5 trillion tokens. Konkurrerer med PaLM 2 og er gratis tilgængelig.

180B

Parametre

2K

Kontekst

$0

Input/1K

$0

Output/1K

Capabilities

Opgaver

TekstgenereringReasoningKodegenereringOpsummering

Sprog Support

Primært engelsk

Styrker

  • En af de største open-source modeller
  • Apache 2.0 licens
  • Konkurrerer med proprietære modeller
  • God reasoning evne

Begrænsninger

  • !Kræver massiv compute
  • !Lille kontekstvindue
  • !Primært engelsk
  • !Svær at deploye

Use Cases

Forskningsprojekter
Large-scale inference
Finetuning til specifikke domæner

Benchmarks

70.4%
MMLU
85.3%
HellaSwag
54%
GSM8K

Tekniske Detaljer

Release Dato
6.9.2023
Provider
TII
Parametre
180B
Kontekstvindue
2,048 tokens
Træningsdata
3.5 trillion tokens primært fra RefinedWeb