ETHIK

Der Mensch steht an erster Stelle. Immer.

Auch wenn das volle Ausmaß der Auswirkungen der künstlichen Intelligenz auf unsere Gesellschaft noch nicht erkennbar ist, ist unser Standpunkt klar: Der Mensch steht an erster Stelle. Immer.

Zum Abspielen klicken
Video anhalten
AUFTRAG

Unsere Produkte sollen die Fähigkeiten der Menschen erweitern, nicht ersetzen. Wir schätzen die einzigartigen Qualitäten und Einsichten, die nur Menschen einbringen können, und stellen sicher, dass unsere Technologie immer nur eine Ergänzung und keine Konkurrenz darstellt.

ETHIK

Ethische Nutzung der KI

Seit 2017 leisten wir Pionierarbeit auf dem Gebiet der generativen KI. Ethik und KI Sicherheit stehen seit jeher im Mittelpunkt unseres Auftrags, und um unsere Verpflichtungen umzusetzen, stützen wir uns auf unsere drei Grundsätze: Zustimmung, Kontrolle und Zusammenarbeit. Unsere Entscheidungsfindung umfasst folgende Phasen:

Zustimmung

Wir respektieren dein Recht am eigenen Bild. Du solltest entscheiden, wie es verwendet wird. Das bedeutet, dass wir ohne deine ausdrückliche Zustimmung niemals einen KI Avatar erstellen werden. Das betrifft auch Bilder und Daten von Politikern oder Prominenten zu satirischen Zwecken. Keine Identitätswechsel, keine Grauzonen.

Wie wir das sicherstellen, erfährst du hier:

  • Echte Menschen, echte Zustimmung: Unsere KI Avatare basieren auf echten menschlichen Darstellern und werden mit deren ausdrücklicher Zustimmung verwendet.
  • Fair Play: Die Darsteller erhalten klare und transparente Informationen darüber, wie ihr Abbild verwendet wird, und werden für ihre Teilnahme fair entlohnt.
  • Opting-Out: Unsere Darsteller können wählen, ob sie aussteigen möchten. Wir respektieren diese Entscheidung und sorgen für einen reibungslosen Übergang.
  • Dein Abbild, deine Zustimmung: Dein Avatar kann nur mit deiner ausdrücklichen Zustimmung erstellt werden, nachdem ein gründliches, der Identitätsprüfung bei Banken ähnliches Verfahren durchgeführt wurde.
  • Vollständige Kontrolle: Auf unserer Plattform entscheidest du, wer deinen Avatar wann und wie verwendet. Niemand kann ohne deine ausdrückliche Zustimmung auf ihn zugreifen.
  • Opting-Out: Du kannst ein Opt-Out beantragen. Wir garantieren, dass deine Daten und dein Abbild vollständig aus unseren Datenbanken gelöscht werden.

Kontrolle

Unsere Plattform ist mehr als nur ein Tool. Sie ist eine sichere Umgebung für Unternehmen, die gewährleistet, dass die Daten deines Unternehmens sicher und unter deiner Kontrolle sind.

So stellen wir diese Kontrolle sicher:

  • Richtlinie zur Inhaltsmoderation: Wir führen zum Zeitpunkt der Erstellung eine strenge Inhaltsmoderation durch und verwenden fortschrittliche technische Filter und Kontrollen durch Menschen, um unangemessene oder schädliche Inhalte zu verhindern. Mehr erfahren
  • Trust and Safety Team: Unser engagiertes T&S-Team arbeitet rund um die Uhr daran, unsere Plattform zu schützen und sicherzustellen, dass sie verantwortungsbewusst genutzt wird.
  • Passgenauer Zugriff: Wir haben Benutzerrollen für passgenauen Zugriff entwickelt, damit unser Tool für alle von Vorteil ist und gleichzeitig sensible Informationen für autorisierte Personen sicher sind.
  • Dein Abbild, deine Zustimmung: Dein Avatar kann nur mit deiner ausdrücklichen Zustimmung erstellt werden, nachdem ein gründliches, der Identitätsprüfung bei Banken ähnliches Verfahren durchgeführt wurde.
  • Vollständige Kontrolle: Auf unserer Plattform entscheidest du, wer deinen Avatar wann und wie verwendet. Niemand kann ohne deine ausdrückliche Zustimmung auf ihn zugreifen.
  • Opting-Out: Du kannst ein Opt-Out beantragen. Wir garantieren, dass deine Daten und dein Abbild vollständig aus unseren Datenbanken gelöscht werden.

Zusammenarbeit

Die Bewältigung der Herausforderungen der KI ist Teamarbeit. Wir glauben an die Bündelung unserer Kräfte mit Branchenführern und Aufsichtsbehörden.

Zu unseren gemeinsamen Bemühungen gehören:

  • Zusammenarbeit mit Aufsichtsbehörden: Wir arbeiten aktiv mit Aufsichtsbehörden zusammen und setzen uns für die Formulierung solider KI Richtlinien und -Vorschriften ein.
  • Partnership on AI (PAI): Wir sind Mitgründer der Partnership on AI und setzen uns für verantwortungsvolle Praktiken bei synthetischen Medien ein. Dies ist das erste branchenweite Rahmenkonzept für die ethische und verantwortungsvolle Entwicklung, Erstellung und Weitergabe von synthetischen Medien. Mehr erfahren
  • Content Authenticity Initiative: Zusammen mit führenden Unternehmen wie Adobe, Nvidia und Microsoft sind wir aktive Mitglieder der Content Authenticity Initiative. Mehr erfahren
  • Dein Abbild, deine Zustimmung: Dein Avatar kann nur mit deiner ausdrücklichen Zustimmung erstellt werden, nachdem ein gründliches, der Identitätsprüfung bei Banken ähnliches Verfahren durchgeführt wurde.
  • Vollständige Kontrolle: Auf unserer Plattform entscheidest du, wer deinen Avatar wann und wie verwendet. Niemand kann ohne deine ausdrückliche Zustimmung auf ihn zugreifen.
  • Opting-Out: Du kannst ein Opt-Out beantragen. Wir garantieren, dass deine Daten und dein Abbild vollständig aus unseren Datenbanken gelöscht werden.
Lernen Sie den AI Futures Council kennen

AI Futures Council

Der AI Futures Council ist eine Gruppe von handverlesenen Experten aus den Bereichen Politik, Medien, Produktentwicklung oder Geschäftsstrategie, die die Zukunft der generativen KI direkt mitgestalten. Der Council bietet einen Raum für Zusammenarbeit und Gespräche über einige der komplexesten und wichtigsten Fragen im Zusammenhang mit dieser transformativen Technologie, einschließlich Bereichen, die spezifisch für Synthesia und die Gesellschaft im weiteren Sinne sind.

Sophia Smith Galer

Sophia Smith Galer ist Journalistin, Creator und Autorin und gehörte zu den Ersten, die im Vereinigten Königreich journalistisch über TikTok berichtete. Sie hat in den Bereichen Gegeninformation, Ermittlungen und KI-Innovation gearbeitet, um Journalisten zu helfen, ihre Online-Arbeit zu verstärken.

Henry Ajder

Henry Ajder ist ein weltweit anerkannter Experte für Deepfakes, generative KI und synthetische Medien. Er gilt als der erste „Deepfake-Kartograph“. Henrys Recherche und seine Sendungen haben das globale Verständnis dafür verändert, wie die synthetische Revolution Unternehmen und die Gesellschaft beeinflusst.

Dani Dhiman

Dani Dhiman ist Experte für Technologiepolitik bei der Formation Advisory, einer spezialisierten KI-Beratung, die von Verity Harding gegründet wurde, laut TIME 100 einer der einflussreichsten Personen in der KI. Dani berät Unternehmen an der Spitze der KI-Innovation, die sich mit den komplexen Herausforderungen neuer Technologien auseinandersetzen müssen.

Dr Phillipa Hardman

Dr. Phillipa Hardman ist Spezialistin für KI und Bildung, die mit weltweit führenden Unternehmen zusammenarbeitet. Sie hat mit Methoden recherchiert und experimentiert, um unsere Erkenntnisse über das Lernen von Menschen zu vernetzen.

Ruben Hassid

Ruben Hassid ist Experte für KI und Inhaltserstellung, der Millionen von Menschen hilft, KI Tools effektiver zu nutzen.

Cara Hunter

Cara Hunter ist Politikerin der Irish Social Democratic and Labour Party und derzeit Mitglied der Northern Ireland Assembly für East Londonderry. Sie kämpfte gegen nicht einvernehmlich generierte Deepfakes und andere Missbräuche von KI.

Nina Schick

Nina Schick ist eine weltweit anerkannte Expertin für KI und Geopolitik, die an der Spitze steht, wie KI die globale Dominanz umgestaltet—nicht nur im Geschäftsleben, sondern auch in der Militärstrategie, der wirtschaftlichen Infrastruktur und der Staatsmacht

Lernen Sie die Darsteller kennen

Das Talent Experience Program

Das Talent Experience Program ist eine Gemeinschaft, die sich aus den außergewöhnlichen Darstellern unserer beliebtesten Avatare zusammensetzt. Sie geben uns Feedback zu unserer Plattform, tauschen Erkenntnisse aus ihrer Branche aus und arbeiten gemeinsam mit Synthesia an Initiativen zur Schaffung fairer, transparenter und nachhaltiger Praktiken in unserem Unternehmen. Indem wir diese Akteure in die Entscheidungsprozesse einbeziehen, wollen wir eine Kultur des gegenseitigen Respekts und der kontinuierlichen Verbesserung schaffen. Weitere Informationen über das Programm findest du hier.

Georgina

Darstellerin

"Es ist schön zu wissen, dass mein Beitrag die verantwortungsvolle Entwicklung der KI Technologie beeinflussen und durch dieses Programm die zukünftigen Produkte und die Avatar-Technologie von Synthesia gestalten kann."

Synthesia avatar poster

Ava

Darsteller

„Ich freue mich sehr, Teil des Synthesia-Programms zu sein. Es ist unglaublich wichtig, die Entwicklung der KI mitzugestalten und sicherzustellen, dass die Technologie weiterhin die Beiträge von Darstellerinnen wie mir respektiert und widerspiegelt.“

Synthesia avatar poster

Dan

Darstellerin

"Ich nehme am Talent Experience Program von Synthesia teil, weil ich sicherstellen möchte, dass KI von ethischen Unternehmen entwickelt wird, die sie für Gutes einsetzen wollen, und weil diese Technologie ein großes Potenzial für unsere Branche hat."

Synthesia avatar poster
Synthesia background image
Mehr dazu

Interviews über KI Ethik mit unserem CEO

FAQs

Antworten auf alle deine Fragen zur Ethik

Wo kann ich detaillierte Informationen über die Sicherheitsmaßnahmen von Synthesia finden?

Einen ausführlichen Überblick darüber, wie wir deine Daten verwalten und schützen, findest du in unserem Sicherheitsportal.

Hält Synthesia die Industriestandards für den Datenschutz ein?

In jedem Fall! Unsere Datenverarbeitungsprozesse sind sowohl SOC 2- als auch DSGVO-konform und gewährleisten ein Höchstmaß an Sicherheit und Datenschutz. Weitere Informationen dazu findest du auf unserem Sicherheitsportal.

Was geschieht mit den Rechten und dem Zugang zu den Inhalten, die ich mit Synthesia erstelle, sowohl während als auch nach der Nutzung des Dienstes?

Du behältst die Rechte an den Inhalten, die du mit Synthesia erstellst und kannst sie herunterladen. Wenn du den Inhalt von Synthesia in deine Videos integrierst, gewähren wir eine unbefristete Lizenz. Wenn du unsere Dienste nicht mehr nutzt, werden deine Inhalte aus unseren Datenbanken gelöscht.