Microsoft verbessert Copilot mit Stimme und emotionaler Intelligenz

Microsoft hat bedeutende Verbesserungen seiner generativen KI, Copilot, vorgestellt, die jetzt über Stimme, visuelle Erkennung und emotionale Intelligenz verfügt und sie zu einem interaktiveren Begleiter für Benutzer macht.

Mustafa Suleyman, CEO von Microsoft AI, erklärte, dass diese Fortschritte es Computern ermöglichen, die menschliche Sprache besser zu verstehen, was das Interaktionsparadigma zwischen Menschen und Maschinen grundlegend verändert. 'Diese Maschinen verstehen jetzt unsere Stimme und können perfekt transkribieren, was wir sagen,' sagte er.

Copilot Voice, das es Benutzern ermöglicht, Gespräche zu führen, wird in Australien, Kanada, Neuseeland, dem Vereinigten Königreich und den USA auf iOS, Android und im Web eingeführt. Zunächst in Englisch verfügbar, hat es die Fähigkeit gezeigt, auch in anderen Sprachen, einschließlich Französisch und Spanisch, zu kommunizieren.

Benutzer werden jedoch gewarnt, dass Copilot, obwohl es gut formulierte Antworten geben kann, auch falsche Informationen generieren kann, die als 'Halluzinationen' bekannt sind. Suleyman betonte, dass die KI nicht in sensible Bereiche wie medizinische Beratung oder rechtliche Warnungen vordringen wird, bis die Genauigkeit verbessert wird.

Eine weitere Funktion, Copilot Vision, ermöglicht es der KI, Webinhalte zu analysieren, einschließlich Text und Bilder, und Empfehlungen basierend auf den Vorlieben der Benutzer zu geben. Diese Funktion befindet sich derzeit in der Beta-Phase und ist über Copilot Labs in den USA zugänglich.

Außerdem stellte Microsoft Think Deeper vor, eine Funktion, die für komplexere Denkaufgaben entwickelt wurde, sowie Copilot Daily, eine Audiozusammenfassung von Nachrichten und Wetter, die schließlich E-Mails und Kalenderereignisse umfassen wird.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.