Neuromation 플랫폼은 인공 지능 모델 개발을 혁신 할 일이 토큰의 blockchain을 증명할 수있는 영수증과 함께 분산 된 컴퓨팅 사용합니다. 혁명은 늦은 감 : 깊은 학습은 매우 큰 용량의 인공 신경 네트워크의 직원을 고용하고 있으며, 따라서 매우 정확한 라벨이 필요합니다. 이미지의 큰 데이터 세트를 수집, 텍스트와 소리가 쉽지만 데이터를 설명하고 주석하는 것은 전통적으로 도전하고 비용이 많이 드는했다가 사용할 수 있도록. 크라우드 소싱은 데이터 세트 생성의 문제에 적용하고 실수를 수정 및 정확성을 향상시키기 위해 인간의 큰 숫자를 사용, 몇 년 전에 라벨했다. 그것은 느리고 비싼 입증과 인간의 편견을 소개했다. 게다가, 등등, 객체 사이의 거리를 추정하는 장면에서 조명을 정량화 정확하게 텍스트를 번역, 그리고 인간이 단순히 잘 할 수없는 작업은 있었다.
STO/ICO기본정보
Claim this listing and publish updates.
기본정보
플랫폼 | Ethereum |
---|---|
타입 | 불분명 |
참가가능화폐 | ETH |
유통량/발행량 | 불분명 |
KYC | 불분명 |
제한 구역 | 불분명 |
웹사이트 | 홈페이지 |
백서 | 다운로드 |
보너스
- First week - 15%
- Second week - 10%
- Third week - 5%
- Fourth week - 1%
개요
The Neuromation Platform will use distributed computing along with blockchain proof of work tokens to revolutionize AI model development.
The revolution is long overdue: deep learning employs artificial neural networks of extremely large capacitance and, therefore, requires highly accurate labeling. Collecting large datasets of images, text and sound is easy, but describing and annotating data to make it usable has traditionally been challenging and costly. Crowdsourcing was applied to the problem of dataset creation and labeling a few years ago, employing large numbers of humans to correct mistakes and improve accuracy. It proved slow, expensive and introduced human bias. Besides, there were tasks that humans simply could not do well, such as estimating distances between objects, quantifying lighting in a scene, accurately translating text, and so on.
We propose a solution whose accuracy is guaranteed by construction: synthesizing large datasets along with perfectly accurate labels. The benefits of synthetic data are manifold. It is fast to synthesize and render, perfectly accurate, tailored for the task at hand, and can be modified to improve the model and training itself. It is important to note that real data with accurate labels is still required for evaluating models trained on synthetic data, in order to guarantee acceptable performance at inference time. However, the amount of validation data required is orders of magnitude smaller than training data!