0:01 → 0:07
BerndWie kannst du die KI optimal in deinem alugha Projekt einsetzen?
0:08 → 0:13
BerndIch kann entweder über den Publisher ein Video direkt hochladen oder von einer anderen Quelle importieren.
0:13 → 0:17
BerndOder ich habe schon ein bestehendes Video, gehe also in mein Archiv.
0:17 → 0:23
BerndDieses Video möchte ich gerne bearbeiten, klicke also hier auf Bearbeiten und jetzt bin ich im alugha dubbr.
0:23 → 0:28
BerndBevor ich die KI überhaupt verwenden kann, muss ich eine Stimme anlegen.
0:28 → 0:36
BerndMindestens eine Stimme, oftmals natürlich so viele Stimmen, wie ich möchte, je nachdem, wie viele Stimmen in meinem Video vorkommen.
0:36 → 0:42
BerndIch sage jetzt einfach mal, das ist der Narrator und damit habe ich jetzt schon einmal die Grundlage.
0:43 → 0:48
BerndZunächst mal habe ich mein Projekt und meine Sprache und hier oben habe ich meine Timeline.
0:48 → 0:52
BerndIn der Timeline, wie man hier sehen kann, gibt es keine Segmente und nichts.
0:52 → 0:56
BerndDiese möchte ich jetzt mittels der alugha KI anlegen lassen.
0:56 → 1:04
BerndIch klicke also hier drauf auf die Artificial Intelligence, auf Speech-to-Text
1:04 → 1:09
Berndund in meinem Fall möchte ich zunächst mal ein Transkript erstellen und nicht Untertitel.
1:09 → 1:13
BerndIch kann das Transkript später auch als Untertitel verwenden.
1:14 → 1:19
BerndIch klicke also auf abschicken und jetzt sehen wir oben so einen kurzen Balken.
1:20 → 1:27
BerndUnd hier sehen wir nun einen gelb, orangenen Punkt, der uns praktisch sagt: Ich bearbeite das gerade.
1:27 → 1:32
BerndWenn ich hier draufklicke sagt er: Hey, Processing request, das ist in Bearbeitung.
1:32 → 1:38
BerndUnd wenn das fertig ist, dann lädt die Seite direkt neu mit meinem Transkript schon drin.
1:38 → 1:43
BerndIch sehe jetzt also hier meine Segmente und was meine KI praktisch verstanden hat.
1:44 → 1:47
BerndDas heißt also, meine Segmente in diesem Falle.
1:51 → 1:55
BerndPerfekt, mein Transkript ist tatsächlich nahezu perfekt.
1:55 → 2:01
BerndImmer wenn er anfängt zu sprechen, fängt ein neues Segment an und wenn er aufhört zu sprechen, hört dieses Segment wieder auf.
2:01 → 2:06
BerndWir sehen auch, ich habe hier Satzzeichen etc. schon in meinem Transkript mit drin.
2:07 → 2:13
BerndAber das ist ja ein Video über KI und hier möchte ich jetzt zeigen, wie ich aus diesem Transkript eine neue Sprache machen kann.
2:14 → 2:18
BerndZunächst einmal gehe ich zurück zu meinen Metadaten, ich habe also meinen Titel, meine Beschreibung.
2:19 → 2:21
BerndUnd klicke jetzt hier auf Tools.
2:22 → 2:26
BerndUnd sage zu ihm: Bitte, lege mir eine neue Sprache an, ich hätte gerne Deutsch.
2:26 → 2:31
BerndUnd ich möchte gerne, dass mein Transkript, mein Titel und meine Beschreibung und meine Tags,
2:31 → 2:36
Berndund wie man hier sehen kann, die kann ich hier nicht markieren, weil das Video keine Tags hat.
2:36 → 2:40
BerndAber all das möchte ich bitte übersetzt haben, aus dem Englischen heraus.
2:40 → 2:44
BerndHier kann ich auch nur eine Sprache derzeit auswählen, weil nur Englisch vorhanden ist.
2:44 → 2:46
BerndUnd das möchte ich jetzt übersetzen.
2:47 → 2:50
BerndJetzt sehen wir ENG für Englisch und DEU für Deutsch.
2:51 → 2:54
BerndWir sehen: The Cloud Chamber, an animation designed to help.
2:54 → 3:00
BerndUnd im deutschen steht jetzt hier: Die Wolkenkammer, eine Animation, die helfen soll, das Geschehen et cetera.
3:00 → 3:03
BerndIch bekomme also meinen Titel und meine Beschreibung direkt übersetzt
3:03 → 3:07
Berndund ich bin hier wieder in meiner Timeline und wir sehen:
3:07 → 3:11
BerndIch hab hier jetzt meine deutschen Segmente mit Text, hier habe ich meine englischen.
3:12 → 3:17
BerndDie könnte ich jetzt hier anheften und könnte mir dann die Deutschen auch dazu vergleichsweise anschauen.
3:18 → 3:23
BerndDas ist mir aber etwas zu kompliziert, deswegen gehe ich auf diesen Icon hier, auf diesen DUB-Icon
3:23 → 3:27
Berndund bekomme jetzt den sogenannten Side by Side Editor.
3:27 → 3:33
BerndHier links sehe ich die einzelnen Segmente, ich kann das aber auch kleiner machen, weil hier sehe ich die auch.
3:33 → 3:37
BerndLinks steht "as soon as the particle is ionized".
3:38 → 3:45
BerndSobald also das Teilchen ionisiert ist, das heißt ich bekomme hier alles direkt übersetzt, mehr möchte ich gar nicht.
3:45 → 3:48
BerndDann klicke ich hier oben wieder auf diesen Recorder.
3:49 → 3:55
BerndUnd in diesem Recorder kann ich direkt eine KI meinen Text sprechen lassen.
3:55 → 4:00
BerndIch klicke jetzt auf diesen Icon, auf dieses Symbol für Text to speech.
4:01 → 4:06
BerndUnd jetzt kann ich mir eine Stimme auswählen, die mir mein Video einspricht.
4:07 → 4:09
BerndUnd klicke auf Übertragen/Submit.
4:10 → 4:19
BerndJetzt werden diese Segmente von der alugha KI eingesprochen und zwar Segment für Segment.
4:20 → 4:22
BerndWenn das Ganze fertig ist, sehen wir hier.
4:23 → 4:24
BerndDas heißt, wenn ich jetzt hier draufklicke:
4:28 → 4:34
BerndUnd wenn das alles fertig ist, dann klicke ich hier drauf und kann das teilen, mein Video
4:34 → 4:39
Berndoder ich schaue es mir einfach mal eben an, wie das Ganze geworden ist.
4:42 → 4:48
BerndJetzt, da mein Interface auf Englisch eingestellt ist, startet auch mein Video auf Englisch.
4:49 → 4:51
BerndUnd ich kann jetzt hier ganz einfach wechseln.
4:54 → 5:05
BerndJa, und so kann man mit der alugha KI einmal ein Transkript erstellen, also Speech-to-Text, man kann übersetzen, Machine Translation
5:06 → 5:11
Berndund man kann sich das Video einsprechen lassen, Text-to-Speech.