logistic ready

Fachportal für Intralogistik

Es gibt eine offene Version von ChatGPT, für diejenigen, die überhaupt trainieren können …

Es gibt eine offene Version von ChatGPT, für diejenigen, die überhaupt trainieren können …

Es gibt eine offene Version von ChatGPT, für diejenigen, die überhaupt trainieren können …

Nach all dem verifizierten Erfolg mit ChatGPT gibt es jetzt eine neue Lösung dafür … jeder kann es jemals zum Laufen bringen.

Diese Woche hat Philip Wang, ein Programmierer, der das Meta-KI-System in der Vergangenheit tatsächlich rückentwickelt hat, Ermöglicht Das neue PaLM + RLHF, ein Cross-AI-Textgenerator, der in einem ähnlichen Format wie ChatGPT von OpenAI arbeitet – mit der Besonderheit, völlig offen und kostenlos zu sein.

Das System kombiniert Googles PaLM mit einer Technologie, die als Reinforcement Learning with Human Feedback (RLHF) bekannt ist, um ein System zu schaffen, das in einem ähnlichen Format wie ChatGPT arbeiten kann, einschließlich der Fähigkeit, E-Mails zu schreiben und sogar kleine programmatische Inhalte zu erstellen. Durch Lernen von KI-Geräten.

Im Gegensatz zur OpenAI-Lösung enthält PaLM+RLHF jedoch keine Trainingsmodelle. Daher bietet das Herunterladen des Codes nicht die gleiche ultimative Erfahrung, die Sie in ChatGPT finden würden, es sei denn, jemand kann Modelle dazu bringen, mit hoher Präzision zu trainieren.

Wie viele andere KI-Systeme arbeitet PaLM+RLHF mit der Analyse von Eingabemodellen, die aus verschiedenen Quellen stammen können, die verwendet werden, um die KI für die Erfüllung ihrer Aufgaben zu trainieren. Und genau hier liegt das Problem für jeden, der beabsichtigt, es zu verwenden, da es notwendig sein wird, es mit genügend Informationen zu „füttern“, damit es greifbare Details liefern kann, die sogar denen in ChatGPT ähneln.

Das Problem ist, dass die meisten Benutzer diese Modelle nicht zum Sammeln zur Verfügung haben und auch nicht über die Hardware verfügen, damit sie ordnungsgemäß funktionieren. Die Aufgabe, Modelle in das Programm einzuspeisen, ist sehr ressourcenintensiv und weit entfernt von dem, was die meisten Benutzer an Rechenleistung für eine solche Aufgabe haben.

Siehe auch  Xbox erhält möglicherweise einen neuen Modus, um den Stromverbrauch zu reduzieren

Eine Studie von AI21 Labs aus dem Jahr 2020 schätzt, dass das Training eines Modells mit „nur“ 1,5 Milliarden Parametern etwa 1,6 Millionen US-Dollar kosten könnte – und diese Beträge sind relativ gering, wenn man alle Informationen berücksichtigt, die verarbeitet werden müssen, um etwas Konsistenz zu schaffen.

Während die Lösung also interessant ist, um die Fähigkeiten des Systems zu analysieren, wäre sie gleichzeitig etwas, das kaum Konkurrenz zu dem schafft, was in ChatGPT von OpenAI enthalten ist.