ANZEIGE
ANZEIGE
ANZEIGE

MIDI-Generatoren mit künstlicher Intelligenz: AIVA, WAVtool und Staccato

Ist das Musik - oder kann das weg?

5. August 2024
MIDI-Generatoren mit künstlicher Intelligenz fürs tonstudio

MIDI-Generatoren mit künstlicher Intelligenz: AIVA, WAVtool und Staccato

In unserem Vergleichstest vergleichen wir MIDI-Generatoren, die  mit künstlicher Intelligenz MIDI-Spuren bzw. Songs erzeugen können. Im Gegensatz zum letzen Vergleichstest, bei denen die KI-Musik-Services SUNO und UDIO im Fokus standen, handelt es sich hier um die reine Erzeugung von MIDI-Daten. Es können zwar auch komplette Songs erstellt werden, jedoch ohne Vocals und immer basierend auf MIDI-Daten, nicht auf Audiodaten. Dieser WOW-Effekt bleibt also aus und KI MIDI-Generatoren sind schon eher ein Angebot, das sich an Musiker wendet.

ANZEIGE

Verschaffen wir uns einen Überblick, was die KI-MIDI-Generatoren können und wie sich der Arbeitsfluss mit den einzelnen Werkzeugen darstellt. Zum Schluss müssen wir uns dann noch ein paar Ergebnisse anhören, um die Qualität beurteilen zu können. Alle drei Tools sind dabei etwas anders aufgestellt. Allen gemeinsam ist aber, dass sie wie eine DAW im Browser funktionieren. Nur für AIVA gibt es auch eine Standalone-Version. Ich möchte mich zudem auf die KI-Funktionen beschränken und nicht den kompletten Umfang der KI-MIDI-Generatoren darstellen, die teilweise komplette DAWS mit Effekten und Instrumenten darstellen. Alle KI-MIDI-Generatoren können übrigens über Web-MIDI über den Browser mit eurer Hardware kommunizieren.

Neben diesem Bericht haben wir bei AMAZONA.de weitere Artikel zum Thema Einsatz von künstlicher Intelligenz im Tonstudio, beispielsweise in Form von DAWs, Plug-ins, Software und Audio-Tools:

KI MIDI-Generatoren – Preise

Ohne ein Abonnement ist aber keines der Programme nutzbar, ob nun im Browser oder nicht. Die Preise bewegen sich dabei bis 20,- $ pro Monat, je nachdem welche Version abonniert wird.

Nur in der höchsten Preiskategorie beim jeweiligen Bewerber in unserem KI-MIDI-Generatoren Vergleich sind auch alle Funktionen freigeschaltet. Jeder Kandidat besitzt zudem eine freie „Schnupper-Variante“, mit dem das Angebot ausgetestet werden kann, wobei sich Staccato hier unvorteilhaft anstellt. Die 10 freien Credits gehen für jeden noch so kleinen Schritt weg und eine Beurteilung des Services ist so kaum möglich.

Vergleichstest: MIDI-Generatoren mit KI – AIVA

Beginnen wir bei unseren KI-MIDI-Generatoren mit dem dienstältesten Service AIVA. Es verwendet in erster Linie die Deep Neural Network (DNN)-Technologie, wodurch es in die Lage versetzt wird, Originalkompositionen zu generieren, die die Stile verschiedener Musikgenres und Komponisten nachahmen. Der Prozess beginnt normalerweise mit der Auswahl des Musikstils oderdes  Genres, das ihr erstellen möchtet, z. B. Klassik, Pop, Jazz oder EDM. Nutzer können verschiedene Parameter wie die Länge der Komposition, das Tempo, die Tonart und die Instrumentierung festlegen. Sobald diese festgelegt sind, generiert AIVA auf Basis dieser Eingabekriterien ein Musikstück.

Derzeit unterstützt AIVA keine direkten Textaufforderungen zum Erstellen von Musikideen. Damit unterscheidet es sich von den beiden anderen Services in unserem KI-MIDI-Generatoren Vergleich – diese haben beide die Möglichkeit, aus Text-Prompts (in englischer Sprache) Spuren, Noten und Instrumentation zu erzeugen.

Stattdessen ist die Interaktion bei AIVA strukturierter, da Nutzer entsprechende Optionen und Einstellungen aus Menüs auswählen kann. Derzeit können die Richtung und das Gefühl der Kompositionen (dargestellt durch Emojis) über die verfügbaren Einstellungen und Anpassungstools beeinflusst werden.

KI MIDI-Generatoren AIVA - Stile creation

ANZEIGE

Die Gesamtheit dieser Einstellungen nennt AIVA Stile und diese werden auch zur späteren Nutzung gespeichert. Jede Anwendung eines Stils bringt schließlich eine oder mehrere Variationen hervor, die dann in der Track-Übersicht landen. Von hier aus können die Tracks und ihre Spuren sowie die Instrumentation in einer DAW-Ansicht editiert werden.

Sehr praktisch ist hier die Unterteilung des Tracks in gegliederte Abschnitte. Diese können verschoben, gelöscht oder neu eingefügt werden und können auf bereits bestehenden Abschnitten beruhen und somit Variationen darstellen oder komplett neu generiert werden.

In dieser DAW-Ansicht finde ich auch die größte Einschränkung des Services – ein erstellter Song wird immer komplett vorgegeben und so ist es nicht möglich, einzelne Spuren stummzuschalten oder deren MIDI-Daten zu ändern, ohne den kompletten Track neu rendern zu müssen. Die erwähnte Standalone-App kann das zwar – die Browser-Version aber nicht. Diese Einschränkung gilt übrigens für alle Browser.

Die Ergebnisse sind nicht überwältigend, aber mit etwas Editierung der Stile und der erzeugten MIDI-Spuren können zumindest kohärente Ergebnisse erzeugt werden. Die Ergebnisse können als MP3-, WAV- (in verschiedenen Auflösungen) und als MIDI-File heruntergeladen werden. Nur beim Herunterladen wird dann auch eine Nutzung „berechnet“ – das heißt, es kann solange am Song gefeilt werden, bis es passt.

Was ich zudem positiv erwähnen möchte, ist die Funktion der „Influences“. Hier können MIDI- oder Audio-Daten hochgeladen werden, nach deren Analyse AIVA dann Variationen erstellen kann. Das MIDI-File muss dabei bestimmten Ansprüchen gerecht werden, wie z. B. mehrere Spuren enthalten und quantisiert sein, Audio-Dateien haben diese Einschränkungen nicht.

Auf diese Weise kam ich zu Ergebnissen, die tatsächlich recht interessant klangen, selbst wenn die Eingabe eine eher wilde Improvisation war – unbedingt mal antesten.

Vergleichstest: MIDI-Generatoren mit KI – WAVtool

Sven Rosswog behandelte ja bereits den Service WAVtool und so erhält er auch nur einen kleinen Abschnitt in unserem KI-MIDI-Generatoren Vergleich. WAVtool ist dabei eine echte DAW im Browser mit eigenen virtuellen Instrumenten (auch VSTs auf dem Rechner können über die WavTool Bridge genutzt werden), externen MIDI-Geräten und Audiospuren.

Mit dem Pro-Plan von WAVtool steht einem ein Chat-Assistent zur Verfügung, dem ganz einfach Anweisungen gegeben werden können. Am besten funktionieren Schritt-für-Schritt Anweisungen, die Erzeugung kompletter Track-Gerüste damit gelingen jedoch selten bis gar nicht.

WAVtool – eine komplette DAW im Browser

Mein Versuch, über den „Conductor Chat“ einen Drum-and-Bass-Track zu erzeugen, gelang nicht mal im Ansatz. In unserem KI-MIDI-Generatoren ist dieser Service wohl ein DnB-Agnostiker. Auch nach mehreren Prompts, bei denen auch gern mal zwischendurch die angegebene BPM-Zahl auf Halftime landete, erzeugte WAVtools KI-Assistent nichts, was auch nur im Ansatz mit DnB zu tun hätte.

KI MIDI-Generatoren WAVtool - chat

Alles in allem scheint die Anbindung des Conductor Chat und die Ausgabe von MIDI-Clips noch nicht sehr fortgeschritten zu sein. Außer sehr rudimentären Ergebnissen konnte kaum etwas produziert werden, was nicht 100-mal schneller manuell hätte erzeugt werden können.

Auf der Plus-Seite haben wir mit WAVtool eine vollständige DAW im Browser, die auch Stem-Separierung beherrscht – hier kann der Service glänzen. Ob nun eine DAW im Browser wirklich notwendig ist, steht auf einem anderen Blatt. Ich persönlich könnte mir keinen Anwendunngsfall vorstellen, bei dem ich nicht lieber auf meine installierte DAW zurückreifen würde. Nicht alles, was technisch möglich ist, ist auch notwendig sinnvoll.

Vergleichstest: MIDI-Generatoren mit KI – Staccato

Ganz neu auf dem Markt ist Staccato und es präsentierte sich in unserem KI-MIDI-Generatoren Vergleich sowohl als Helfer zum Erzeugen von MIDI-Daten als auch von Song Lyrics – eine Erzeugung von KI-Stimmen gibt es allerdings nicht. Im Pro Plan kann auf beide Generatoren zugegriffen werden und auch Staccato ermöglicht die Erzeugung von Spuren einer bestimmten Art über den Chat, also Drums, Bass und Akkordverbindungen mit entsprechenden Instrumenten.

KI MIDI-Generatoren Staccato - start

Im Gegensatz zu AIVA ist Staccato aber nicht in der Lage, zusammenhängende Songs auf einmal zu erzeugen. Als Beispiel sind hier drei Ausgaben auf das Prompt „Create a simple EDM Track with beats bass and chords“ zu hören.

Das hört sich erstens mehr nach der Begleitautomatik einer Heimorgel an und zweitens hat es herzlich wenig mit EDM zu tun. Auch hier scheint kein tiefes „Wissen“ über das Genre vorhanden zu sein. Hier das Ergebnis des Prompts „Create a simple Drum And Bass Beat with 4 measures“

Abgesehen davon, dass am Anfang immer noch ein Überbleibsel des vorigen Prompts zu hören war (ich habe es für die Beispiele weggeschnitten), hat auch das hier weder in Instrumentation, noch Geschwindigkeit, noch Stil etwas mit meiner Prompt-Eingabe zu tun.

In aller Fairness besitzt Staccato aber nur dieses eine Plöp-Drum-Set, ein anderer Klang ist also von vornherein nicht möglich. Da aber die MIDI-Daten exportiert werden können, könnte später ein entsprechendes Drum-Set genutzt werden.

Das Editor-Fenster von Staccato wird schnell unübersichtlich

Nach dem Erzeugen gelangen wir in eine MIDI-Editor-Ansicht, in der mehrere Spuren gleichzeitig auf einer Pianorolle dargestellt werden können, wenn es mehrere Instrumente gibt. Eine echte DAW-Ansicht bietet Staccato nicht.

Es können nun mehrere Spuren angelegt werden. Aber jeglicher Versuch, irgendeine Kohärenz herzustellen, scheiterte. Auch wenn ich explizit einen Bass zum Beat erzeugen wollte: „create a bassline fitting the beat start at bar 1“, erzeugte Staccato oft einfach einen weiteren Beat, dazu veränderte sich auch noch der Beat auf der ersten Spur und nach einem Undo verschwand einfach alles aus der Ansicht.

Selbst wenn Staccato meine Anweisung ausführte, kam nicht selten so etwas dabei heraus.

Es gibt auch eine Extend-Funktion, die auf vorhandenem Material aufbauen soll – mir kommt sie eher wie eine agnostische Random-Funktion vor. Ich denke einfach, Staccato steht noch ganz am Anfang der Entwicklung und es sollte eher als public Alpha-Test bezeichnet werden. Dann sollte aber auch kein Geld vom Kunden fließen. Es bleibt abzuwarten, wie sich der Service in Zukunft entwickelt.

ANZEIGE
Fazit

Alle Kandidaten unseres KI-MIDI-Generatoren haben eine etwas verschiedene Angehensweise. WAVtool ist tatsächlich eine komplette DAW im Browser, die mit einem KI-Chat „angereichert“ wurde.

AIVA geht einen geradlinigeren Weg, hat aber deswegen auch die konsistentesten Ergebnisse – und gerade die Variationen anhand der „Inspirations“ können tatsächlich gefallen. AIVA hat auch den vollen Funktionsumfang in der freien Version (minus den Rechten an der erzeugten Musik). Es können aber nur drei Songs pro Monat tatsächlich heruntergeladen werden.

Staccato habe ich persönlich eher als Katastrophe erlebt. Hier scheint nichts zu passen und die KI weiß weder, was ich will, noch was sie selber will – so ist ein zielgerichtetes Arbeiten nicht möglich. Mir ist schnell die Lust daran vergangen.

Plus

  • AIVA: kohährente Ergebnisse, gute Instrumentenqualität
  • WAVtool: komplette DAW mit Stem-Separierung, gute Instrumentenqualität

Minus

  • AIVA: keine Realtime-Wiedergabe im Browser
  • WAVtool: Conductor Chat liefert keine überzeugenden Ergebnisse
  • Staccato: KI-Prompt lliefert keine überzeugenden Ergebnisse, Qualität der Instrumente niedrig

Preis

  • AIVA montliche Abrechnung: Standard 15,- €/Monat, Pro 49,- €/Monat
  • AIVA jährliche Abrechnung: Standard 11,- €/Monat, Pro 33,- €/Monat
  • WAVtool montliche Abrechnung: Indie $4,- /Monat, Pro $20,-/Monat
  •  Staccato montliche Abrechnung: $11,99/Monat
  • Staccato jährliche Abrechnung: $9,99/Monat
ANZEIGE
Klangbeispiele
Forum
  1. Profilbild
    Karpo72

    Brauche ich dafür KI? Ich empfehle Jedem mal den Midicake Arp auszuprobieren. Das ist zwar keine KI, aber man kommt superschnell zu Ergebnissen für vier Midi Kanäle. Man kann jetzt sogar zwei Geräte miteinander verbinden und 8 Spuren ansteuern.

  2. Profilbild
    iOwner

    Also das klingt jetzt nicht nach großem Kino. Bei solchen Beispielen würde ich mich nicht wundern, wenn die Zurückhaltung bei einem Abo entsprechend groß ist. Da würde ich lieber mit einem Random Arpeggiator arbeiten und mir ein wenig Harmonielehre anschauen. Davon hätte man mehr.

  3. Profilbild
    Flowwater AHU

    Ich kann nur hoffen, das solche Tools – eben genau deswegen, weil sie nicht machen und sich weigern das zu machen was man will – schnell wieder vom Markt verschwinden (ich bin ja sowieso der Meinung, dass KI maßlos überhypet ist).

    Das Beispiel »Chill Orchestra« von »AIVA« finde ich erstaunlich; aber es ist irgendwie nix, was man nicht selber hin bekäme. Klar, man muss es auch machen. Aber raffinierte Rhythmen und verblüffende Harmoniewechsel höre ich da nicht. Und wer für so etwas ein KI-Tool benötigt … naja.

    Die beiden ersten Beispiele von »Staccato«: Braucht man dafür ein KI-Tool? Und das letzte Beispiel mit »Staccato«: Braucht man DAFÜR etwa ein KI-Tool? 😄

    WAVTool: Schon gut … Schwamm drüber! 😉

    Ich glaube, das größte Problem von KI ist immer noch, dass die Ergebnisse recht charakterbefreit daherkommen. Was natürlich mit Blick auf die erzeugende Anwendung – eben die KI – kein Wunder ist. Und ob’s der Otto-Normal-Spotify-Konsument bemerkt? 😁

  4. Profilbild
    sola

    Ki ist nicht nur overhyped, sondern auch überinterpretiert. Ich sehe überall, dass sobald eine CPU eingesetzt wird, sofort von „KI“ gesprochen wird. 99% dieser Systeme haben aber mit künstlicher Intelligenz oder machine learning überhaupt nichts zu tun. Und das ist nicht nur im Audio-Umfeld so.

    Soweit es automatisch arbeitende Systeme gibt, die sich an USER-Aktitivät anpassen und auf vorhandenes Wissen zurückgreifen, um Probleme zu lössen, kennen wir die seit 30 Jahren als „Expertensystem“ sowie „Estimationssystem“. Wird in der Datenbank- und Regelungstechnik seit ewig. Objektidentifikation anhand erlernter Daten und Flugzeugsteuerungen zur Lageregelungen sind solche Systeme.

    Nur ist es eben so, dass sie KI momentan sehr gut verkauft. So wie „vegan“ und „CO2-neutral“. Früher war es „bleifrei“. Eine KI käge vor, wenn sie aus der Nutzung der Musik = Verkaufszahlen, ermittelt, wohin der Geschmack gerade geht, wo er in 5 Jahren sein wird und wie daher ein neuer Rhytmus oder Melodie sein muss, um Erfolg zu haben. Das tut die SW aber nicht. Sie wendet nur einen Teil vorhandenen Wissens an und zwar den, den der unterbezahlte SW-Entwickler des Geräts kennt.

    Echtes machine learning spielt sich woanders ab z.B. im Bereich high performance computing und unterliegt auch anderen Regeln. Die Algos und Lösungsstrategien sind da auch weitaus komplizierter, erfordern entsprechendes Knowhow, Forschung, Rechenleistung und das aufwändige Füttern mit Daten.

    • Profilbild
      CDRowell AHU

      @sola Ein interessantes Thema, was ihr austauscht.
      Das schöne bei dem Thema KI ist, es wird stets das bringen, was Mensch sich durch seine Fertigkeiten vorstellen kann.😇 Sozusagen ist auch hier wieder mal das größte Problem vor dem Bildschirm. 😱

      Wenn man den Leistungsunterschied zwischen den letzten zwei Spectralayers Versionen anhört, kann KI schon punkten.🤣

      Es bleibt abzuwarten, wie reine Logik hinter den „musikalischen“ Vorgängen sich erweitert. Um emotional eine Befriedigung oder Aufbau von Spannungen zu erzeugen, benötigt es für mein Verstehen insbesondere die Entschlüsselung von Emotionen.🍀

      Vorstellbar ist: Würden emotion-MIDI-Generatoren programmiert, dann wären die Kosten zur Entwicklung allein so hoch, dass wenige den Preis zahlen könnten… ziemlich wackeliges Geschäftsmodell🤣👍

      Bis dahin wird wohl die kostengünstige Kopie von „Hör mal Rudi, hör mal!“ fortgesetzt.🥱

      • Profilbild
        Flowwater AHU

        @CDRowell
        > […] Sozusagen ist auch hier wieder mal das größte Problem vor dem Bildschirm. […]

        Ist das so? Bezogen auf den reinen Nutzer einer KI ist es doch schon merkwürdig, dass man sich mit einem »Prompt« (alleine schon wieder diese Bezeichnung) abmühen muss, um ein wie auch immer geartetes Ergebnis zu bekommen. Das dann eben nicht kommt. Als Musiker muss man dann also Dichter werden, um die richtigen Worte für eine KI zu finden (und nicht für seinen nächsten Song oder die Liebeserklärung an die Freundin). Und ob dann das richtige Ergebnis kommt und ob man sich dadurch nicht angewöhnt, seine Sprache zu verbiegen, nur damit eine KI einen versteht (wie pervers ist das denn bitteschön), das muss auch noch getestet werden. Und dann kommt die nächste Generation der KI … und man kann seine angewöhnte Sprache für den Prompt wegschmeißen (wie man in der IT so oft sein hart erarbeitetes KnowHow komplett löschen darf).

        Im Falle der Programmierer der KI gebe ich Dir Recht: Die Software liefert natürlich (ungefähr) nur das, was seine Entwickler auch so im Kopf hatten. Da vermutlich die meisten Entwickler keine Musiker sind … tja, da kommt dann eben dieser Unsinn heraus. Ich könnte noch weiter schwadronieren, dass meinem Gefühl nach mit einer nicht im Ansatz fertig entwickelten Technologie die schnelle Kohle gemacht werden soll … und dass die ganze Hysterie vermutlich in wenigen Jahren wieder vorbei ist. Aber da steigere ich mich jetzt nicht hinein.

  5. Profilbild
    THo65 AHU

    Also mir erschließt sich der Nutzen von KI beim Musik machen nicht…
    Wenn ich Songs covere, brauche ich das eh nicht.
    Und wenn ich eigene Stücke komponiere, dann ist doch ein KI-generiertes Stück ( ob nun ganz oder teilweise) doch gar nicht mehr von mir, sondern vom Computer.

    Ich komme seit längerem nicht mehr dazu, so viel Musik zu machen wie ich eigentlich möchte, aber wenn ich dann irgendwann wieder etwas fertig gestellt habe, bin ich auch irgendwie zufrieden und stolz. Das würde mir bei KI-Unterstützung doch fehlen….

    Ergo, nichts für mich.

  6. Profilbild
    manomym

    Also da finde ich die Ergebnisse von VSTs mit eingebauten Arrangern schon wesentlich spannender, wie Hypernode und The Orchestra z.B. …. Oder auch eine x-beliebige Loop-Sammlung, zufällig zusammengewürfelt….

  7. Profilbild
    Tai AHU

    Ich stelle mir vor (wie Gantenbein): ich wäre Modelleisenbahner. Da bietet mir jemand ein Abo für den automatischen Aufbau einer neuen Anlage an. Super! Da greife ich doch gerne zu.

    Überzeugen liessen sich da nur diejenigen, deren Job es ist, Modelleisenbahnen für andere zu bauen. So hier, wer täglich Fahrstuhlmusik produzieren muss, für den könnte das was sein.

    • Profilbild
      Baeno

      @Tai Das trifft den Nagel auf den Kopf.
      Ich mache gerne Musik. Ich bin aber wirklich nicht talentiert und die Ergebnisse sind nicht besonders. Aber der Prozess macht mir total viel Spass.
      Bestimmt könnte ich mit Unterstützung zu besseren Ergebnissen kommen aber das übt auf mich gar keinen Reiz aus.
      Macht man das ganze professionell, sieht das natürlich anders aus.

  8. Profilbild
    tuonodriver

    Nix gegen den Fortschritt aber wenn ich so überhaupt keine Ideen habe was Musik betrifft, kann ichs ja gleich bleiben lassen! Ich mein, letzten Endes werden wir doch alle von schon bestehender Musik inspiriert denk ich. Daraus entstehen dann eigene Ideen……oder etwa nicht?

  9. Profilbild
    8-VOICE AHU

    Hahaha….. Die Soundbeispiele, EDM geht ja richtig ab…. Nichts für mich, dann lieber ein frei programmierbarer Arpeggiator wie Blue Arp und ähnliche.

  10. Profilbild
    sola

    Wenn ich eins nicht mag, dann „Abomodelle“ für Software. Das läuft immer auf billiges Anfüttern hinaus, um nachher teuer zu werden und abzukassiere, weil der Kunde nicht mehr weg gehen kann, wie bei den Zeitungen, die irgendwas zum Basteln beinhalten, wodurch man dann die gesamte Serie kaufen muss. Die letzten sind dann dummerweise immer ausverkauft und müssen bestellt werden oder sie wird eingestellt und man hat ein halbes Schiff :-)

    • Profilbild
      gs06

      @sola Also bei dem eigentlichen Artikel bin ich bis zu dem Satz „Ohne ein Abonnement ist aber keines der Programme nutzbar“ gekommen – danach habe ich spontan das Interesse verloren und bin sofort zu den Kommentaren hier gesprungen, da mich der Gedanke KI-erzeugter Melodien und Harmonien an sich zwar interessiert, aber nicht als Abo.

      Anders als Tai kann ich mir schon vorstellen, dass es manchmal Spaß machen kann, automatisch generierte Tonfolgen zu nutzen, um damit selbst Sounds anzuspielen, an denen man gerade schraubt. Es gibt ja durchaus vielfältige Betätigungsformen im musikalischen Schaffensprozess jenseits des Komponierens.

      Als interessantes Werkzeug hierfür erscheint mir beispielsweise der Noodler, für den man nur einmalig zahlen muss und an dem man sogar physisch herumschrauben kann.

      • Profilbild
        Tai AHU

        @gs06 Finde ich auch. Die Arbeit am Stück ist doch das, was am meisten Spaß macht. Der Applaus für das fertige Stück ist natürlich auch ok. Wem das das Wichtigste ist, der macht ohnehin eher Livemusik. Was nicht bedeuten soll, dass Livemusiker keinen Spaß beim Spielen hötten 🤪

  11. Profilbild
    MadMac

    Ich habe den Eindruck, hier soll auf Grund des KI-Hypes einfach nur schnell Knete gemacht werden. Die kreativen Outputs dieser sogenannten KI‘s sind in meinen Augen ein Witz. Selbst nach zwei Flaschen Wein und mehreren Joints bringe ich noch mehr zustande. 😊

    Sorry, ich weiß einfach nicht, wobei mich solche tools unterstützen können. Für mich war es als Musiker immer am wichtigsten, etwas selbst zu erschaffen und dabei auch immer wieder etwas Neues zu entdecken. Natürlich innerhalb meiner eigenen Fähigkeiten und technischen Möglichkeiten, und unabhängig davon, ob es sich vielleicht kommerziell verwerten lässt.

  12. Profilbild
    dAS hEIKO AHU

    Und abseits aller Sinnhaftigkeit oder sachmoralischer Bedenken möchte ich mal anmerken, wie oft wir bei Hardwaretests dann Kommentare wie „…ist viel zu teuer dafür..“ lesen, finde ich es erstaunlich, dass man hier anscheinend sofort dabei ist 120-600 Euro im Jahr für etwas Auszugeben, dass ich mir in dieser Zeit auch ganz gut selbst aneignen könnte.

    Miete für Software ist die fetteste Milchkuh, die je gemolken wurde. Eine künstlerische Pause von 2-3 Monaten kostet einen einfach mal mehrere -zig oder hunderte Euro. Das hat ja schon was von Fitness-Center-Verträgen, die, einmal abgeschlossen, geld reinspülen, ob es genutzt wird oder nicht.

    Und auch wenn ich „nachhaltig“ weder gerne und schon gar nicht leichtfertig in den Mund nehme, sollte klar sein, dass alles was gerade an KI auf dem Computer angepriesen wird eben NICHT auf selbigem stattfindet, sonder idR in der Cloud. Auf einem Großrechner, auf Serverfarmen, meißt in Übersee. Das kostet für solche „Blödelanwendungen“ (man verzeihe mir diesen polemischen Begriff oder halt nicht) irrsinnige Mengen an Energie. Die ernsthaften Anwendungen im Wissneschaftlichen Bereich (Klimamodelle, Genetik, Neuronale Netze) sind ja erst im Aufbau, und kommen da noch dazu.

    Einfach ein Instrument vor sich zu stellen und sich damit auseinanderzusetzen hat da schon was von „Ich lass das Auto mal stehen und nehm da mal lieber das Rad“.

    IMHO. 💗 & ☮

Kommentar erstellen

Die AMAZONA.de-Kommentarfunktion ist Ihr Forum, um sich persönlich zu den Inhalten der Artikel auszutauschen. Sich daraus ergebende Diskussionen sollten höflich und sachlich geführt werden. Es besteht kein Anspruch auf Veröffentlichung. Wir behalten uns die Löschung von Inhalten vor. Dies gilt insbesondere für Inhalte, die nach unserer Einschätzung gesetzliche Vorschriften oder Rechte Dritter verletzen oder Diffamierungen, Diskriminierungen, Beleidigungen, Hass, Bedrohungen, politische Inhalte oder Werbung enthalten.

Haben Sie eigene Erfahrungen mit einem Produkt gemacht, stellen Sie diese bitte über die Funktion Leser-Story erstellen ein. Für persönliche Nachrichten verwenden Sie bitte die Nachrichtenfunktion im Profil.

ANZEIGE
ANZEIGE
ANZEIGE
ANZEIGE
X
ANZEIGE X