There were 164 press releases posted in the last 24 hours and 398,549 in the last 365 days.

AI-Media, 캡션 및 언어 서비스 기술 발전 위해 Speechmatics와 전략적 파트너십 발표

뉴욕 브루클린, Sept. 13, 2024 (GLOBE NEWSWIRE) -- 시청각 인코딩 기술과 AI 기반 전사 및 번역 솔루션 분야의 글로벌 선도 기업인 Ai-Media가 새롭고 더욱 향상된 AI 기반 제품을 시장에 내놓고자 음성 인식 기술 분야의 시장 선두주자인 Speechmatics와 다년간 쌓아온 파트너십을 전략적으로 확장한다.

이번 파트너십의 목표는 Speechmatics의 선도적인 음성-텍스트 변환 기술과 AI-Media의 고유한 iCap 기반 인코딩 어플라이언스를 결합하고, 고객의 기존 워크플로우와 자동화 시스템 내부에 기술을 원활하게 삽입하는 네트워크를 구축하는 데 있다.

이러한 기능들을 통합한 덕에 AI-Media의 LEXI 3.0은 아주 저렴한 비용으로 라이브 영상 시장에서 휴먼인더루프(human-in-the-loop) 제품의 품질을 뛰어넘는 최초의 AI 제품이 되었다.

AI-Media의 CEO Tony Abrahams는 이번 파트너십에 관하여 다음과 같이 말했다.

“LEXI 3.0 성능으로 도출한 데이터에 따르면, Speechmatics는 지난 2년간 가장 신뢰할 수 있는 엔진 중 하나였으며, 갈수록 정확도가 향상되는 결과를 꾸준히 제공해왔다. 이번 파트너십을 통해 양사는 미래의 캡션 및 번역을 위한 혁신 솔루션을 공동 개발하고 구상하며 더욱 가까워졌다.

우리는 함께 힘을 모아 정확하고, 신뢰할 만하며, 글로벌 고객사들의 다양한 니즈를 유연하게 수용하는 솔루션을 만들어갈 것이다.

이번 협력으로 더욱 깊어진 양사의 파트너십 덕에 AI-Media의 iCap 인코딩 생태계는 업계 판도를 바꾸는 Speechmatics의 AI 기술을 활용해 최상의 퍼포먼스를 얻고 싶어 하는 전 세계 방송국 및 정부 기관 고객사들이 선호하는 선택지로 떠오르고 있다.”

이번 파트너십은 Speechmatics의 첨단 음성 인식 엔진과 AI-Media의 최첨단 워크플로우 및 인코딩 기술을 활용해 방송가부터 정부 및 기업 영역에 이르기까지 여러 산업 분야의 다양하고도 복잡한 요구 사항을 해결한다.

이번 파트너십을 계기로 Speechmatics는 핵심 기술을 AI-Media의 LEXI 3.0 제품과 통합해 기술의 도달 범위를 넓히게 되었다.

단기적인 목표는 성공을 입증한 LEXI 3.0을 유럽 방송 시장에 진출시키는 것으로, Speechmatics가 새로 선보인 다국어 기능은 AI-Media의 성장 계획과 정확히 어우러진다.

미래를 위한 비전

새로운 파트너십을 통해 AI-Media는 Speechmatics의 최대 라이브 캡션 시장 파트너가 되었다. 이는 양사 협력 관계에서 중요한 이정표다.

Speechmatics의 CEO인 Katy Wigdahl은 다음과 같이 말했다.

“Speechmatics는 라이브와 오프라인 환경에서 높은 정확도와 짧은 지연 시간을 지키며 다국어를 제공할 수 있기 때문에 방송 분야에서 선도적인 자동음성인식(ASR)공급사로 자리매김했다. AI-Media는 시장을 선도하는 자신들의 방송 인프라에 우리 회사의 기술을 성공적으로 통합했으며, 그를 통해 자신들이 진출한 시장에서 인상적인 성장을 이뤄냈다. 이러한 전략적인 파트너십은 더욱 신속한 혁신과 민첩성을 확보할 수 있도록 긴밀한 협력의 기회를 제공한다. 그 결과로 글로벌 방송국들은 시장 최고 수준의 캡션 서비스를 계속 제공받을 수 있고, 양사가 AI 기반 캡션 분야에서 결합한 강점은 더 광범위한 업종에서 활용될 것이다.”

AI-Media와 Speechmatics는 동종 최고의 기술을 통합해 업계 기준을 새로 정립하고자 한다. 양사의 협력은 단순한 기술 통합에만 그치지 않고 비전과 혁신의 파트너십을 지향하며, 글로벌 언어 서비스 시장의 역동적인 수요에 맞춰 꾸준히 진화하는 것을 목표로 삼는다.

IBC 2024에서 만날 수 있는 AI-Media

IBC 2024에 참가하면 AI-Media의 최신 혁신 기술을 만나볼 수 있고, 전 세계 방송국과 기업이 캡션 워크플로우 변화를 위해 AI-Media와 LEXI를 신뢰하는 이유를 확인할 수 있다. 일대일 미팅은 이 링크에서 예약하면 된다. 더 많은 정보는 웹사이트(ai-media.tv)에서 확인 가능하다.

AI-Media 소개

2003년 호주에서 설립된 AI-Media는 AI 언어 및 캡션 워크플로우 솔루션을 전문으로 하는 선도적인 기술 기업이다.

이 분야에서 글로벌 리더인 AI-Media는 전 세계 도처의 다양한 고객들과 시장을 대상으로 높은 품질의 AI 기반 라이브 및 녹화 캡션기능과 번역, 기타 솔루션을 제공한다.

AI-Media는 2024년 2월 업계 최초로 AI 구동방식의 캡션 제품인 ‘LEXI’가 인간이 처리했던 고비용의 기존 워크플로우와 비교해 훨씬 더 우수하다는 획기적인 데이터를 공개했다.

AI-미디어는 업계에서 쌓은 풍부한 경험과 정교한 AI 기술력을 활용해 프로세스 간소화와 단순화를 구현하는 솔루션 개발을 위해 노력하고 있으며, 전 세계 주요 방송사와 기업, 정부기관 등이 콘텐츠 제공에 있어 차질 없이 접근성과 포용성을 확보할 수 있도록 지원해 나가고 있다.

AI-Media(ASX: AIM)는 2020년 9월 15일에 ASX (호주증권거래소)에서 첫 거래를 개시하였다.

IBC 2024에서 만날 수 있는 Speechmatics

IBC 2024에 참가하면 Speechmatics가 자동음성인식(ASR) 기술 분야에서 어떠한 발전을 이루고 있는지 만나볼 수 있다. AI-Media를 비롯해 선도적인 기업 및 방송국이 Speechmatics가 제공하는 실시간 기반의 정확하고 확장 가능한 ASR 솔루션을 신뢰하는 이유 또한 확인할 수 있다. 일대일 예약은 이 링크에서 가능하다. 더 많은 정보는 웹사이트(speechmatics.com)에서 확인하면 된다.

Speechmatics 소개

Speechmatics는 자동음성인식(ASR) 기술 분야의 글로벌 선도 기업으로, 미디어 및 방송 업계의 대표 브랜드들의 신뢰를 얻고 있다. 최첨단 ASR 솔루션을 통해 짧은 지연 시간과 높은 정확도를 구현함으로써 시중 제품 중 가장 빠르고 믿음직스러운 실시간 전사 서비스를 방송국들에 제공한다.

ASR 분야에서 혁신을 주도: 우리는 고객이 경쟁력을 유지할 수 있도록 ASR 기술의 한계를 끊임없이 밀어붙인다. 우리 솔루션은 발화되는 단어를 포착할 뿐 아니라 웃음, 박수, 음악과 같은 음성 이벤트까지 인식한다는 점에서 경쟁사들과 차별화한다.

새로 선보이는 획기적인 Ursa 2 모드는 아랍어 방언, 아일랜드어, 몰타어에 대한 향상된 지원을 포함해 총 50개 언어에서 18%의 오류 감소를 실현했으며, 이로써 24개의 EU 공식 언어를 모두 지원하게 되었다. 지연 시간을 1초 미만으로 단축한 Ursa 2모드는 정확도 저하 없이 초고속으로 실시간 전사 기능을 강화한다.

정확하고 빠른 캡션 워크플로우를 찾고 있는 방송국과 기관에게 Sppechmtacis는 최상의 선택지다.

언론 연락처 정보: Fiona Habben – Fiona.habben@ai-media.tv

본 보도자료와 관련된 사진자료는 하단 링크를 통해 이용이 가능합니다

https://www.globenewswire.com/NewsRoom/AttachmentNg/5929ce95-d0a8-4632-a788-8e90065db860


Primary Logo

Legal Disclaimer:

EIN Presswire provides this news content "as is" without warranty of any kind. We do not accept any responsibility or liability for the accuracy, content, images, videos, licenses, completeness, legality, or reliability of the information contained in this article. If you have any complaints or copyright issues related to this article, kindly contact the author above.