Update README.md
Browse files
README.md
CHANGED
|
@@ -26,6 +26,30 @@ base_model:
|
|
| 26 |
|
| 27 |
AtomicGPT 1 ist ein deutsches KI-Sprachmodell, das auf `GPT-2 Medium` basiert und speziell für die Verarbeitung der deutschen Sprache optimiert wurde. Das Modell wurde mit einem **1 MB großen Datensatz** trainiert, der **Mathematik, Allgemeinwissen und Gesprächsdaten** umfasst. Dabei wurde ein besonderer Fokus auf Konversationsfähigkeiten gelegt, da dieser Bereich die meisten Trainingsdaten erhielt.
|
| 28 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 29 |
## Trainingsdetails
|
| 30 |
- **Modellbasis**: `kkirchheim/german-gpt2-medium`
|
| 31 |
- **Datensatzgröße**: 1 MB
|
|
|
|
| 26 |
|
| 27 |
AtomicGPT 1 ist ein deutsches KI-Sprachmodell, das auf `GPT-2 Medium` basiert und speziell für die Verarbeitung der deutschen Sprache optimiert wurde. Das Modell wurde mit einem **1 MB großen Datensatz** trainiert, der **Mathematik, Allgemeinwissen und Gesprächsdaten** umfasst. Dabei wurde ein besonderer Fokus auf Konversationsfähigkeiten gelegt, da dieser Bereich die meisten Trainingsdaten erhielt.
|
| 28 |
|
| 29 |
+
## Vergleiche
|
| 30 |
+
<table>
|
| 31 |
+
<thead>
|
| 32 |
+
<tr>
|
| 33 |
+
<th>Aufgaben</th>
|
| 34 |
+
<th>L-GPT_1</th>
|
| 35 |
+
<th>L-GPT_1.1</th>
|
| 36 |
+
<th>AtomicGPT 1.0</th>
|
| 37 |
+
<th>AtomicGPT 2.0</th>
|
| 38 |
+
<th>AtomicGPT 3.0</th>
|
| 39 |
+
</tr>
|
| 40 |
+
</thead>
|
| 41 |
+
<tbody>
|
| 42 |
+
<tr>
|
| 43 |
+
<td>Q&A</td>
|
| 44 |
+
<td>7.5%</td>
|
| 45 |
+
<td>44.17%</td>
|
| 46 |
+
<td>58.33%</td>
|
| 47 |
+
<td>59.17%</td>
|
| 48 |
+
<td>90%</td>
|
| 49 |
+
</tr>
|
| 50 |
+
</tbody>
|
| 51 |
+
</table>
|
| 52 |
+
|
| 53 |
## Trainingsdetails
|
| 54 |
- **Modellbasis**: `kkirchheim/german-gpt2-medium`
|
| 55 |
- **Datensatzgröße**: 1 MB
|