Beiträge von audioVortex

    Hi,


    die Akkord-Folgen in deinen Songs übernehmen leider keine Funktion (kannst ja mal nach Harmonielehre googlen) und sorgen deshalb für das Empfinden von purer Randomness und geben auch nichts das Gefühl, dass ein Teil-Abschnitt abgeschlossen ist. Ähnliches gilt für die Lead-Melodien. Sie klingen eher zufällig, als nach einem gezielten Noten-Verlauf. Das macht sie nicht einprägsam.
    Es fiel mir schwer zu erkennen, wo genau die Parts, Bridge, Pre-Chorus oder Chorus liegen sollten. Die heben sich leider weder melodiös oder instrumentell, noch von der Spielweise ab.


    Die Instrumente sind nicht besonders gut gewählt. Der Lead-Sound klingt synthetisch, die Bläser(?) im Background könnten als Pad durchgehen und dann kommt noch die seeeehr künstlich, fast nach MIDI klingende Violine hinzu. Es wäre besser, wenn die Sounds in sich mehr zusammenpassen würden und sich vor allem gegenseitig ergänzen. Das sorgt für eine stimmigeres Gefühl und benötigt weniger Mixing-Aufwand.


    Der Mix hat noch viel Platz nach oben. Die Snare z.B. als eines der wichtigsten Rhythmus-Elemente ist zu leise und dünn gemischt. Die fehlende Knackigkeit ihrer Transiente sorgt auch dafür, dass sie sich nicht gegen den Bass, die Kick und den Background durchsetzen kann. Kick & Bass sollten ebenfalls unebdingt besser aufeinander abgestimmt werden (auch hier kannst du dich mal über Ducking schlau machen). Aktuell überlagern sich beide an vielen Stellen und klingen matschig.


    Mehr Stereo könnte dem ganzen auch gut tun, denn aktuell spielt fast alles wirklich mittig. Einzige die Bläser gehen etwas auf; das m.M.n. fehlplatzierte Percussion bringt auch etwas Stereo-Anteil.
    Der Mix klebt leider an den Boxen, da praktisch keinerlei Raum eindeutig hörbar gezielt eingesetzt wurde. Die Hihat-Rolls sind zu laut und stechen damit gegen die langsam gespielten Hats unschön heraus. Generell vermisse ich viel Dynamik beim Spiel der Instrumente & Drums. Klingt aktuell eher nach: Strg-A + Velocity 100% :D


    Dieser Beat lässt sich pratisch nicht ohne größeren Nach-Mix-Aufwand mit Rap füllen, weil all deine Instrumente bereits die für Vocals wichtigen Bereiche im Spektrum & zeitlich ausfüllen und die Drums arg in den Hintergrund gerückt wurden. Gerade unerfahrene Produzenten machen diesen Fehler, da sie leider nie das Zusammenspiel zwischen ihrem Beat und Rap erfahren durften. Die Beats werden dann eher für sich allein stehend als Werk produziert. Nur nützt das den Rappern eben nichts.


    1 Download geht auf meine Kappe, um ihm im Studio richtig anhören zu können. Wenn ich Punkte vergeben würde, wären es nicht viele. Dafür stimmt zu wenig an den Beats, vor allem wenn man die Anzahl der bereits von dir produzierten Beats bedenkt. Ich würde dir empfehlen weniger Welle zu machen, eine Upload-Pause einzulegen und in 2 Wochen mal mit einem ernsthaft produzierten Beat wiederzukommen. Auch kann ich nur empfehlen mal andere Künstler herzunehmen und die Ergebnisse zu vergleichen. Das setzt natürlich eine einigermaßen realistische Selbstreflexion voraus. Leider hast du auch die beim Welle machen noch nicht bewiesen.


    Gruß,
    Danny

    Du weisst doch gar nicht wovon du da redest. Geh doch weinen oder beten weil jemand im Internet die Wahrheit über dein geliebtes FL Müll-dio sagt. Was ist daran nicht zu verstehen, dass es ineffizient ist?


    Wir nutzen Pro-Tools HD im Studio. Mit Shortcuts & Controllern. Effizient und durch die Haptik vor allem intuitiv zu bedienen.


    Was für eine Qualitätssteigerung soll dieses Programm mit sich bringen? Im Endeffekt ist es eine Digital Audio Workstation wie jede andere, nur etwas umständlicher und nerviger.


    Ich finde ja Ableton eher nervig oder Tracktion vom Workflow, auch wenn es zig Leute gibt, die damit beste Ergebnisse abliefern.


    In FL sind z.B. Automationen sehr schön über Clips gelöst. Macht es einfach sie zu bearbeiten und zu kopieren. Auch die Tatsache das jeder Mixer Kanal praktisch das sein kann, als was man ihn gerade nutzen möchte (Gruppe, Send, Audio, Sidechain) und sich nicht vorher festlegen muss, kommt dem Mixer von Pro-Tools nah.


    Ableton und Fruity haben halt grundsätzlich andere Ziele. Das merkt man auch im Workflow.

    Man reizt auch bei großen Projekten nicht wirklich die CPU Grenze aus. Schon allein durch Track-Freezing wird die "Last" auf das reine Abspielen von Audiodaten verringert. Und zusätzliche DSP Karten verschieben die Berechnungen und geben nochmals Power. Bei 16 Samples Latenz muss man auch nicht zwingend das ganze Projekt über arbeiten, also lässt sich durch Vergrößerung des Puffers auch nochmal etwas einsparen.


    Wenn man aber keinen Plan hat was man tut, seine DAW nicht bedienen kann, Bedroom Producer auf einem Notebook ist oder aufm C64 arbeitet, sieht die Sache natürlich anders aus :D

    Alles ist besser als FL Studio, das ist das größte Meme seit es Hobbyproduzenten gibt... Workflow ist grottig, das GUI aus dem letzten Jahrhundert (Die schlechte Sorte davon) und allgemein ist die Struktur des Applikationsschemas ein Labyrinth... Einfach mal prüfen wie viele Klicks man für das abrufen der selben Funktion braucht... Eine Frechheit


    Du arbeitest noch mit der Maus und Klicks? Nicht dein Ernst, das ist doch voll ineffizient :rolleyes: Nur um mal gefragt zu haben: mit welcher DAW spielst du eigentlich so herum?

    jedes Parameter hat eine fast unendliche Anzahl an Kombinationsmöglichkeiten mit den anderen. Ob sich diese so stark voneinander unterscheiden werden ist eine andere Frage


    Sie sollten sich nicht nur unterscheiden, sondern auch im Zusammenspiel gut klingen, was die Anzahl deiner Kombinationsmöglichkeiten nochmals sehr drastisch reduziert.



    desweiteren spezialisieren sich physical-modelling lLösungen nicht nur auf ein schlagzeugelement, beispielsweise hast du bei dem plugin von Image Line Kick, Snare, Hat und Perc.


    Das ist richtig. Hab auch gemeint, dass man mit 1 Model genau 1 Element synthetisieren kann. Das IL (ich nehme an du meinst Drumaxx) mehere Instrumente bereitstellt, heißt einfach dass sie mehere Models eingebaut haben.



    Man kriegt aus einem Plugin mindestens 32 Kicks raus, die sich stark voneinander unterscheiden, der Rest ist dann dem fx-abschnitt überlassen...


    Aber FX kann ich doch genauso auf Sample-Layer anwenden, um den Klang zu beeinflussen. Und an die kommt man sehr viel schneller und unaufwändiger ran. Was genau bringt mir dann vorher das Physical Modeling?



    Unendlich ist da eher der falsche Ausdruck, jedoch liegt das eher an dem momentanem Angebot der Produkte und nicht an der Technik an sich, diese ist tatsächlich ein Segen was Effizienz betrifft.


    Was meinst du denn mit effizient? CPU wohl kaum, denn gute Models ziehen ordentlich*. Und sich alle 32 Kicks (ich glaube dir, dass man nicht mehr rausbekommt, weil das auch gar nicht das Ziel von PM ist) ein neues Plugin kaufen zu müssen, ist jetzt auch wirtschaftlich nicht effizient für den Konsumenten.



    *u-he hatten auf einer NAMM mal eine Preview zu ihrem PM Drumsynth gegeben und darüber gequatscht wie aufwändig das ist und wie schwer es wird, guten Klang in annehmbare Performance zu bekommen.

    Zu empfehlen ist da echt eine physical modeling Lösung, ist nicht ganz so teuer und es gehen einem nie samples aus


    Beim Physical Modeling wird vor allem 1 Instrument imitiert und dabei hat der Nutzer nur Zugriff auf einen geringen Teil der Parameter. Erklär mir mal bitte, wie du aus dem Model für eine z.B. eine Schlagzeug Bassdrum, einen nie endenden Vorat an unterschiedlich klingenden HipHop Kick Samples generieren willst :D Vor allem wenn du wahrscheinlich nur die Anschlagstärke, Größe, Schlägel, evtl. noch Material direkt beeinflussen kannst.

    So viel unterschiedliches wie nur möglich, kann man dann im nachhinein auf einen Nenner Bringen mit harmonizing, fx, etc...


    #WirdImMixGefixt sounds good, doesn't work... ;) Gutes Sounddesign (Layering und erstrecht Mixing) fängt bereits bei der Auswahl der Sounds & Instrumente an. Einfach alles reinballern was man so zur Verfügung hat (bestenfalls noch gleichzeitig spielen lassen), matscht das Spektrum unnötig zu, sorgt für Probleme in der Stereopositionierung, ist nicht besonders einprägsam und klingt selten nach einem in sich stimmigen Werk. Außerdem ist der beste Mix immernoch der, bei dem man gar nicht so viel eingreifen muss, denn jeder FX hat auch seine Begleiterscheinungen.

    Ich tu mal so als wäre das der offizielle Audacity Fragethread : Meine Frage hat jemand Ahnung von Programmieren und sich zufällig eine Audacity Version selbst kompiliert mit eingebundenem asio- Treiber ? Hab mir iZotope Ozone 6 eigentlich für Fruity geholt als master addon , läuft aber in der neuen Audacity Version (2.2.1) richtig rund + noch Fruity als Vst Plugin, nur trotzdem beides ohne asio ist irgendwie nicht der Sinn der Sache glaube ich.


    Hmh ASIO hat nichts mit dem Plugin selbst zu tun, sondern damit, wie die DAW mit der Audio-Hardware kommuniziert.


    In Fruity kannst du jederzeit einen ASIO Treiber einstellen (Options->Audio Settings->Input/Output Device). Sollte keiner installiert sein, google mal nach ASIO4ALL v2. Ist quasi ein allround Treiber, der generelle Funktionen bereitstellt. Solltest du Hardware benutzen, die spezielle Funktionen benötigt, liefern die eig. auch ihren eigenen Treiber mit.


    Ich könnte dir Audacity mit ASIO kompilieren, dürfte es dann aber selbst eig. nicht in Umlauf bringen :D Das verstößt gegen die Steinberg-Lizenzbestimmungen (weshalb auch Audacity nicht direkt mit ASIO ausgeliefert wird).


    2 Fragen: Weshalb gerade Audacity, wenn du bereits FL hast? Hast du dir die Anleitung zum selbst kompilieren von Audacity mal angeschaut?

    Nexus wird unter der Haube für Expansions gut weiterentwickelt (z.B. wurden für die Hollywood XP die Anzahl der OSCs erhöht und Round Robin aufgebohrt). Für die Kunden soll m.W.n. zukünftig der Browser etwas besser gestaltet und die UI resizable werden. Aber man muss auch sehen, dass es nunmal nur ein Rompler/Sample Player sein soll und sich die Macher deshalb gut zurück legen können und an den XPs verdienen.
    btw wird auf Nexus deshalb meist verwiesen, weil seit Jahren eine gecrackte Version im Umlauf ist und sich die ganzen kleinen Kiddies die holen um mehr "pro" zu klingen ;) Das geht aber oft voll in die Hose, weil ein guter Sound fehlendes Talent nicht ersetzen kann.


    Die Sounds sind ziemlich ready to use, aber genauso overprocessed, overused und vor allem EDM-lastig. Aufgrund der fehlenden Eingriffsmöglichkeiten sucht man sich auch schnell dumm und dämlich bis man einen Sound hat, der den eigenen Vorstellungen entspricht. Ich würde ihn mir nicht noch einmal kaufen und mit dem Verkauf ist das so eine Sache. Denn den wirst du nur los, wenn der Entwickler guter Laune ist und wenn du ihn samt aller XPs verkaufst (und da musste erstmal jemanden für finden :D ). Für irgendwelche Backing-Sounds bzw. unsterstützende Sachen á la Supersaw ist der gut, aber 'nen eigenen Signature-Sound kriegste damit nicht hin.


    Würde prinzipiell eher zu richtigen Synths raten. Mit etwas Neugier und Übung kannst du schnell brauchbare Sounds ertellen. Mit Synthmaster hast du viele Syntheseformen und eine gute Preset-Base. Die u-he Sachen sind oft analogen Geräten nachempfunden und soundtechnisch auf hohem Niveau. Omnisphere/Atmosphere sind auch stark Sample-basiert aber du kannst sie selbst kombinieren. NI bietet (insbesondere mit Kontakt, deren Sample Player/Editor) auch HipHop Expansions an. Der Vorteil hier ist, dass auch 3rd Party Designer XPs erstellen können. KVR hat ein gutes Ranking an Synths, da kannst du auch nach Freeware sortieren.


    Aber wie phil schon meinte: nützt alles nichts, wenn man die Sounds nicht gut ausspielen und kombinieren kann.

    Kann mich noch an Zeiten erinnern, in denen sich Künstler die Mühe gemacht haben die Produzenten abzuklappern, sich vorzustellen und versuchten diese mit mehr als einem Handy-Snippet von sich zu überzeugen... Und dann hat der Produzent entschieden, ob die Leute die Skills für eine Zusammenarbeit haben. Schön wars :D

    Ja, Sonar ist offiziell discontinued. Wenn sie aber nicht gerade einen C/R Kopierschutz nutzen und es bugfrei läuft, kannst du Sonar noch beruhigt weiter verwenden. Oder vermisst du Fixes/Features?
    Auch wenn sie auf ihrer Webseite schreiben, dass Server aktiv bleiben etc. würde ich nicht darauf wetten und mal ein Backup ziehen.


    Habe Sonar nie zum Produzieren genutzt sondern nur zum Testen von Plugins. Aber ich kenne Studio One und damit kannst du prinzipiell nichts verkehrt machen. Es ist z.B. Vorreiter in Sachen ARA, genießt häufig stabile Updates und bietet einen ordentlichen Funktionsumfang. Es mausert sich in der Beliebtheit stetig nach oben. Zu Studio One gibt es afaik ebenfalls Melodyne Essentials.


    Im Gegensatz zu Cubase hat meiner Erfahrung nach Studio One den Zenit seiner Entwicklung noch längst nicht überschritten und die Devs nehmen sich Kundenwünsche zu Herzen. Sie sind ebenfalls um einiges kooperativer was 3rd-Party Pluginentwickler angeht. Bisher ist mir Studio One auch noch nicht beim Einbinden diverser Interfaces oder Plugins abgeschmiert - sieht bei Cubase ganz anders aus, vor allem im Studiobetrieb ;)


    Prime für 150€ wäre wirklich ein Rip-Off. Nach kurzem Suchen finde ich aber ein Crossgrade zu Studio One Pro, inklusive Erläuterungen über die Unterschiede/Gemeinsamkeiten und wie man den Umstieg am besten meistert.


    Mixcraft hat ebenfalls ein Wechsel-Angebot, aber über die DAW kann ich dir absolut nichts sagen :D
    Würde sonst mal noch Reaper oder Digital Performer in den Raum werfen.

    Oder du legst noch eine 2. Spur mit Delay an und verschiebst die Clips mit den einzelnen Worten auf diese. Das ist vor allem temporär ein schneller Workaround, wenn du sonst sehr viel automatisieren müsstest oder sich die Clips während der Bearbeitung noch viel verschieben werden. Der Nachteil daran ist, du müsstest alle FX die schon auf deiner Spur sind mit kopieren und Änderungen immer doppelt anpassen.

    Hi,


    weil du bei Instrumental-Einzelspuren gezielt in diejenigen eingreifen kannst, die stören. Du kannst sie beiseite schieben, muten, Automationen anwenden, Frequenzen anpassen, ggf. nochmal mit dem Vocal-Reverb nachverhallen - alles um deine Vocals besser in den Beat einzumischen, anstatt sie nur oben aufliegen zu lassen. Es ist die Interaktion, die das gewisse Etwas bringt um alles aus einem Guss klingen zu lassen.


    Zusätzlich habe ich persönlich die Erfahrung gemacht, dass viele Instrumentale in sich noch Luft nach oben haben was Mixing angeht, einfach komplett zugebaut werden oder oft auch schon ein "Pseudo-Mastering" hinter sich haben. Fehlerausbesserung geht dann meist nur auf Einzelspuren.
    Auch kann man einfacher den Beat in der Länge verändern und interessanter gestalten, ohne einfach nur 8 Bars zu loopen. So bietet es sich an, z.B. auch mal nur Drums oder einen Synth spielen lassen, um einen Break aufzubauen.


    Als Tip kann ich geben: wende nur Effekte an, die du kennst und auch nur, wenn du einen Grund dafür hast/hörst. Einfach nachzubearbeiten, weil jemand mal gesagt hat "das muss so" oder "nimm einfach das Preset", geht schief. Und lass dir Zeit, höre lieber 10x öfter darüber, bessere aus und entscheide dann realistisch, ob du dein Ergebnis mit anderen teilen möchtest bzw. welche Kritik du dafür kassieren könntest.


    Viel Erfolg,
    Danny

    Hi,


    was wäre denn die klangliche Verbesserung, die du erwarten würdest? Prinzipiell: wenn du mit Melodyne bereits die Tonhöhen richtig korrigierst, hat Autotune nichts mehr zum anpacken. Es arbeitet auf Basis von Ungenauigkeiten zwischen Quelle und Ziel, die behoben werden.


    Ein wichtiger Unterschied ist, dass du bei Melodyne gezielt die Tonhöhen angeben kannst, um z.B. Gesang extakt auf eine Melodielinie zu korrigieren. Dabei enstehen keine bis wenig Artefakte, vor allem weil Melodyne keine Reaktionszeit benötigt. Herkömmlich angewendetes Autotune hingegen "rundet" den Audio Input einfach auf die nächst liegende Tonhöhe der angegeben Tonart (unabhängig davon, welchen Melodieverlauf du als Ziel hast).


    Solltest du Autotune aber z.B. mittels MIDI Input einzelne Töne vorgeben, auf die es korrigieren soll, können die typischen Autotune Artefakte stark hörbar werden (je nachdem wie weit dein Audio vom Ziel entfernt ist). Denkbar wäre, die krassesten Ausreißer vorher ein wenig mit Melodyne einzufangen, um so gezielter den Effekt zu beeinflussen.


    Das alles macht vor allem bei Gesang Sinn. Bei Rap sind zum einen die Sprünge der Tonhöhen nicht wirklich groß und zum anderen wird selten auf eine Melodielinie sondern eher auf eine Tonart gestimmt.


    Beste Grüße,
    Danny

    Bei Hardware der Virus C von Access und Roland JP8080 sowie TB-303. Krasse Lieblings-Softsynth hab ich nicht, da bestimmt der Zweck eher den Synth. Aber Hive oder Diva von u-he und Synapse Audio The Legend sind schon recht nice. Am Sytrus hab ich früher viel geschraubt und Serum taugt für Wavetable-Sounds.

    Hi,


    Mastering gestaltet sich unterschiedlich, je nachdem wie die Ausgangslage ist. Dazu gilt zu klären welcher Musikstil, Single-Track (ein Song) oder Multi-Track (Album, Sampler), physisches Release (CD, Vinyl, Tape) oder rein digital (iTunes, Spotify, YouTube). Für alles gibt es Vorgaben und Standards, die sich auch mit der Zeit ändern (Ziellautheit, Headroom, Frequenzbalance, Audio-Codierung, Meta-Tags, DDP, ...). Weiter sind die "Probleme" oder Ziele ausschlaggebend dafür, ob ein einfaches Mastering (kompletter Track) oder Stem-Mastering (Mastering mit 2-4 Subgruppen) angebracht wäre.
    Ganz wichtig ist aber zu verstehen, dass man auch durch Mastering nicht aus Scheiße Gold machen kann. Einem guten Mix hingegen kann man noch das gewisse Etwas verleihen.


    Typische Arbeiten sind Fehler ausbessern, das Spektrum bereinigen (EQ, Automation) und bändigen (dyn. EQ, Multiband Compressor), für Konsistenz & Durchsetzung sorgen, ggf. Lautheit anpassen, Monokompatibilität herstellen & ein angenehmes sowie definiertes Stereobild ausarbeiten, den gewissen Touch geben & Klang formen (EQ, Sättigung) und zuletzt Limiting, Dithering. Auch Fades setzen, Gegentesten auf Endgeräten und die Reihenfolge der Track festlegen gehört dazu. Bestenfalls sind es nur Nuancen, die geändert werden müssen, dann ist Mastering quasi die Sahne auf dem Eisbecher :D Andernfalls muss abgeschätzt werden, ob es nicht besser wäre, die Sachen im Mix anzugehen.
    Am wichtigsten sind aber die Ohren und Erfahrung. Auch auf gute Analyzer (Waveform, Correlation, Goniometer, VU/LU, Loudness, Spektrum) sollte man zwischendurch ein Auge werfen.


    D.h. achte z.B. darauf, dass nichts clippt; dass es keinen DC Offset gibt; das der Track in der Phantommitte sitzt, sich aber in der Stereobreite öffnet; dass er nicht an Boxen klebt; dass nichts pumpt oder der Noisefloor hochgezogen wird; dass die Dynamik erhalten bleibt, aber man nicht während des Hörens die Volumecontrol nachregeln muss; dass der Track nicht durch zuviele Höhen in den Ohren weh tut und auch nicht nur bassig dröhnt; dass er sich auf verbreiteten Endgeräten verhältnismäßig gut durchsetzen kann und nicht z.B. plötzlich Elemente auf dem Smartphone verschwinden weil das nur Mono wiedergeben kann.


    Als Einstieg kann man sich einen Referenztrack besorgen, der zum eigenen Song passt. Das Mastering besteht dann darin, den Sound an die Referenz anzupassen. Aber was genau gemacht werden muss und wie man dabei vorgeht ist sowohl von den Tracks selber abhängig, als auch von den Mitteln, die dir zur Verfügung stehen.
    Wenn man einen tieferen Einblick haben möchte, kann man sich auch durch Bücher weiterbilden. Bob Katz oder Friedemann Tischmeyer haben Mastering und vor allem dessen Basics zu genüge aufgegriffen. Wenn man die durch hat, kann man die erklärten Techniken und Vorgehensweisen auf andere Songs projizieren.


    Seine eigenen Mixe zu mastern ist aber insofern suboptimal, als das die Objektivität nicht mehr vorhanden ist. Die Ohren kennen den Sound und sind stark beeinflusst. Dadurch kann jede Änderung entweder total unangenehm klingen oder gar keine Wirkung haben (was dazu führt, dass sie übertriebener eingesetzt wird). Auch neigt man dazu, sich tot zu hören und nie zufrieden zu sein. Außerdem fertigt man einen Mix ja bereits nach bestem Wissen und Kenntnisstand an, dann ist es eher unwahrscheinlich, dass man noch die zusätzlichen Feinheiten raushören kann. Ein Vorteil aber ist, dass alle "Fehler" bequem im Mix ausgebessert werden können und somit das Mastering im besten Fall nur aus einem Safety-Limiter incl. Dithering besteht.


    Beste Grüße,
    Danny