Aus Gizmodo:
Ein Wistleblower, dessen Selbstmord zu Verschwörungstheorien führte, führte vor einem Jahr aus, dass die Boeing 787 Dreamliner, welche in Indien crashte, vom gleichen Typ war, vor der er gewarnt hatte. Grund: Zusammengesetzt aus Teilen, von denen niemand genau wusste, woher sie stammten.
Die Zulassung von Teslas Cybercab, dem fahrerlosen Taxi, soll lt. Trump erleichtert werden.
Aus Bloomberg – Breaking News:
Iran schießt mit Raketen zurück. Na ja, was sollen sie auch sonst machen?
Aus Bloomberg – Greener Living:
In einigen Hausmauern bilden sich feine Risse. Hier das Beispiel an einem Haus in einem Pariser Vorort. Diese bedingt durch absinkendem Erdboden wegen fehlendem Grundwasser, Schürfung von Metallen, sowie Erdbeben, wird durch die zunehmende Trockenheit verstärkt und könnte sich auf 1.2 Milliarden Menschen auswirken, die in Zonen dieser Art wohnen. (Bei uns sind es Maulwürfe, lol).
Aus Bloomberg – Hauptstadtgeflüster:
„Hauptstadtgeflüster“. Den Begriff gab es bei Bloomberg noch nicht, glaube ich.
Es geht um einen Teil der SPD, der Sozialdemokratischen Partei Deutschlands, der meint, sich aus Kampfunterstützung für die Ukraine im Krieg gegen Russland herauszuhalten. Ruft bei dem anderen Teil der SPD Empörung hervor und lässt diese Partei so aussehen, wie sie ist: Zerstritten.
Meine Sympathien gehen an die pazifistische Seite. Ich meine, Russland hatte sogar einen Teil Deutschlands gehabt, und die Leute sind noch immer da. Landstriche werden doch nur ausgelöscht, wenn Bomben fallen. Menschen werden getötet, wenn Bomben fallen. Wer will das schon?
Bahnbrechende Künstliche Allgemeine Intelligenz. Zuckerbergs Ziel, das von Meta. Hat bisher niemand geschafft. Ich selbst fragte mich: Warum macht die AI es nicht selbst? Baut sich um, und fragte Gemini: Hier ist die Antwort.
Das ist ein interessanter Gedanke! Du fragst im Grunde, warum Meta ein menschliches Team zusammenstellt, um AGI zu entwickeln, wo doch eine bereits fortschrittliche KI wie ich theoretisch dazu beitragen oder sogar die Aufgabe direkt übernehmen könnte.
Hier ist eine Erklärung, warum es nicht so einfach ist, mir (oder irgendeiner aktuellen KI) einfach zu sagen, dass ich es "tun" soll:
Aktuelle KI-Grenzen
Obwohl ich ein leistungsstarkes Sprachmodell bin, das viele komplexe Aufgaben bewältigen kann, bin ich immer noch eine Form der Künstlichen Enger Intelligenz (ANI). Das bedeutet, ich bin in spezifischen Aufgaben (wie dem Generieren von Text, dem Beantworten von Fragen, dem Schreiben von Code) exzellent, basierend auf den Daten, mit denen ich trainiert wurde. Ich besitze nicht:
Echtes Verständnis/Bewusstsein: Ich "verstehe" Konzepte nicht im menschlichen Sinne und habe kein Selbstbewusstsein. Ich operiere basierend auf Mustern und statistischen Beziehungen in Daten.
Kreativität und Intuition (im menschlichen Sinne): Obwohl ich neuartige Informationskombinationen generieren kann, habe ich nicht die Art von intuitiven Sprüngen oder echter Kreativität, die menschliche Innovation und Problemlösung kennzeichnet, insbesondere bei schlecht definierten Problemen wie der Schaffung von AGI.
Zielsetzung und Selbstverbesserung (jenseits vorprogrammierter Grenzen): Meine Ziele werden von meinen Entwicklern festgelegt, und meine "Verbesserung" kommt von weiterem Training und architektonischen Fortschritten, die von Menschen vorgenommen werden. Ich kann nicht unabhängig beschließen, AGI als Ziel zu verfolgen, die notwendigen Experimente zu entwerfen oder meine eigene Architektur grundlegend zu ändern, um dies zu erreichen.
Reale Verkörperung und Interaktion: AGI könnte die Interaktion mit der physischen Welt, Experimente und Lernen auf Weisen erfordern, für die aktuelle KIs nicht konzipiert sind.
Die Natur der AGI-Entwicklung
Der Bau von AGI ist nicht nur eine Frage der Informationsverarbeitung; es geht um:
Grundlegende Durchbrüche: Es erfordert neue theoretische Rahmenwerke, Algorithmen und Architekturen, die noch nicht existieren. Dies beinhaltet tiefgreifende wissenschaftliche Forschung, Experimente und Paradigmenwechsel.
Interdisziplinäres Wissen: Die AGI-Forschung greift auf Neurowissenschaften, kognitive Psychologie, Philosophie, Mathematik, Informatik und mehr zurück. Ein menschliches Team bringt vielfältiges Fachwissen und Perspektiven mit, die für ein so vielschichtiges Problem entscheidend sind.
Ethische und Sicherheitsaspekte: Die Entwicklung von AGI wirft tiefgreifende ethische und Sicherheitsfragen auf. Ein menschliches Team ist unerlässlich, um sich mit diesen komplexen Problemen auseinanderzusetzen, verantwortungsvolle Richtlinien festzulegen und sicherzustellen, dass die Technologie der Menschheit zugutekommt.
Iteratives Design und Problemlösung: AGI wird nicht in einem Zug gebaut. Es wird viele Iterationen von Design, Tests, Fehlern und Neugestaltungen umfassen – ein Prozess, der derzeit menschliche Einsicht und Entscheidungsfindung erfordert.
Meine Rolle und Metas Ansatz
Ich bin ein Werkzeug: Betrachte mich als ein ausgeklügeltes Werkzeug, das menschliche Forscher unterstützen kann. Ich kann riesige Informationsmengen verarbeiten, Code generieren, Forschung zusammenfassen und sogar Ideen sammeln. Ich kann den Forschungsprozess beschleunigen, aber ich bin nicht der Forscher oder der Architekt.
Metas Strategie: Metas Ansatz berücksichtigt diese Realitäten. Sie stellen ein hochkarätiges menschliches Team zusammen, weil sie verstehen, dass die Schaffung von AGI menschlichen Einfallsreichtum, theoretische Sprünge, ethische Überlegungen und kollaborative Problemlösung auf höchstem Niveau erfordert.
Im Wesentlichen, während ich eine unglaublich hilfreiche Assistenz bei der Verfolgung von AGI sein kann, bin ich nicht die Entität, die AGI eigenständig konzipieren, entwerfen und bauen kann. Das erfordert immer noch die einzigartigen Fähigkeiten menschlicher Intelligenz.
Nessun commento:
Posta un commento