Deep Neural Networks (DNNs) have emerged as powerful machine learning 的繁體中文翻譯

Deep Neural Networks (DNNs) have em

Deep Neural Networks (DNNs) have emerged as powerful machine learning models that exhibit major differences from traditional approaches for image classification [13, 23]. DNNs with deep ar- chitectures have the capacity to learn complex models and allow for learning powerful object representations without the need to handle designed features. This has been empirically demonstrated on the ImageNet classification task across thousands of classes.Compared to image classification, object detection is a more challenging task that requires more sophisticated methods to solve. In this context, we focus not only on classifying images, but also on estimating the classes and locations of objects within the images precisely. Object detection is one of the hardest problems in com- puter vision and data engineering. Owing to the improvements in object representations and machine learning methods, many major advances in object detection have been achieved, like Faster R-CNN [20], which has achieved excellent object detection accuracy by using DNNs to classify object proposals.In real world applications, it may be required to classify a given image based on the object(s) contained within that image. For ex- ample, we want to classify an image into different categories based on the fish types within the image, as shown in Fig.1. There are some unique practical challenges for this kinds of image recogni- tion problems: Firstly, the objects are very small as compared to the background. Standard CNN based methods like ResNet [7] and Faster R-CNN [20] may learn the feature of the boats (background) but not the fishes (objects). Therefore, it will fail when presented with images containing new boats. Secondly, imbalanced data sets exist widely in real world and they have been providing great chal- lenges for classification tasks. As a result, the CNN models might be biased towards majority classes with large training samples, such that might have trouble classifying those classes with very few training samples. Thirdly, in real-world applications, getting data is expensive that involves time-consuming and labour-intensive process, e.g., ground truth have to be labeled and confirmed by multiple experts in the domain. How to achieve good performance with very limited training dataset remains a big challenge in both academic and industry.In this paper, we address the aforementioned challenges by pre- senting a computational framework based-on the latest develop- ments in deep learning. Firstly, we propose two-stage detection scheme to handle small object recognition. The framework com- bines the advantages of both object detection and image classifica- tion methods. We first use state-of-the-art object detection method
0/5000
原始語言: -
目標語言: -
結果 (繁體中文) 1: [復制]
復制成功!
深層神經網絡(DNNs)已成為表現出從圖像分類的傳統方法主要區別強大的機器學習模型[13,23]。深AR- chitectures DNNs必須學會複雜的模型,並允許學習強大的對象表示,而不需要處理設計的功能的能力。這已經證明了經驗上的數千個類的ImageNet分類任務。<br>相比於圖像分類,目標檢測是一個更具挑戰性的任務,需要更複雜的方法來解決。在這方面,我們不僅著眼於圖像分類,還對估算精確的圖像中物體的類別和位置。物體檢測是在COM的帕特視覺和數據工程中最難的問題之一。由於在對象表示和機器學習方法的改進,在物體檢測許多重大進展已經實現,像更快速的R-CNN [20],這已經通過使用DNNs分類對象的建議取得了優異的物體檢測精度。<br>在真實世界的應用中,可能需要包含在該圖像內的基於對象(一個或多個)給定的圖像進行分類。對於前充足,我們希望將圖像分為基於圖像內的魚種類不同的類別,如圖1所示。這有各種各樣的形象recogni-重刑問題的一些獨特的現實的挑戰:首先,對象是與背景相比非常小。標準CNN基礎的方法等RESNET [7]和更快的R-CNN [20]可以獲知的船(背景),但不是魚(對象)的特徵。因此,當與含有新船的圖像呈現它會失敗。其次,均衡數據集在現實世界中廣泛存在,他們一直在為分類任務巨大的挑戰。其結果是,CNN的模型可能對多數類與大訓練樣本有偏差,這樣可能有麻煩的班級,很少訓練樣本進行分類。第三,在實際應用中,得到的數據是昂貴的,涉及耗時耗力的過程,例如,地面實況已被標記,並通過在多個領域專家證實。如何使用訓練數據集非常有限留在學術界和工業界的一大挑戰取得良好的業績。<br>在本文中,我們通過預提呈應對上述挑戰基礎上的深度學習最新的開發成果的計算框架。首先,我們提出了兩個階段的檢測方案來處理小物體識別。該框架的COM bines兩個物體檢測和圖像classifica-和灰的方法的優點。我們首先使用狀態的最先進的物體檢測方法
正在翻譯中..
結果 (繁體中文) 2:[復制]
復制成功!
深度神經網路 (DNN) 已成為功能強大的機器學習模型,與傳統的圖像分類方法存在重大差異[13, 23]。具有深度 ar-chitec 的 DN 具有學習複雜模型的能力,並允許學習強大的物件表示,而無需處理設計的功能。這在跨數千個類的 ImageNet 分類任務中得到了經驗證明。<br>與圖像分類相比,物件檢測是一項更具挑戰性的任務,需要更複雜的方法來求解。在此背景下,我們不僅關注圖像的分類,還關注精確估計圖像中物件的類和位置。物件檢測是視覺和資料工程中最難解決的問題之一。由於物件表示和機器學習方法的改進,在物體檢測方面取得了許多重大進步,如更快的R-CNN[20],通過使用DDN對物體進行分類,實現了出色的物件檢測精度。建議。<br>在實際應用程式中,可能需要根據該圖像中包含的物件對給定圖像進行分類。對於前充分,我們希望根據圖像中的魚類型將圖像分類為不同的類別,如圖 1 所示。對於這類圖像識別問題,存在著一些獨特的實際挑戰:首先,與背景相比,物件非常小。基於CNN的標準方法,如ResNet [7]和更快的R-CNN[20]可以學習船隻的特點(背景),但不是魚(物件)。因此,當顯示包含新船的圖像時,它將失敗。其次,不平衡的資料集在現實世界中普遍存在,它們為分類任務提供了巨大的保障。因此,CNN 模型可能偏向大多數具有大型訓練樣本的類,因此,在將那些訓練樣本很少的類進行分類時,可能會遇到困難。第三,在實際應用中,獲取資料成本高昂,需要耗時和勞動密集型過程,例如,地面真相必須經過該領域的多個專家的標記和確認。如何在非常有限的培訓資料集下實現良好的績效,仍然是學術界和業界的一大挑戰。<br>在本文中,我們通過預先發送基於深度學習中最新開發的發展的計算框架來解決上述挑戰。首先,我們提出了處理小物體識別的兩階段檢測方案。該框架綜合了物件檢測和圖像分類方法的優點。我們首先使用最先進的物件檢測方法
正在翻譯中..
結果 (繁體中文) 3:[復制]
復制成功!
深神經網路(DNNs)已經成為一種强大的機器學習模型,顯示出與傳統的影像分類方法的主要區別[13,23]。具有深層結構的dnn具有學習複雜模型的能力,允許學習强大的對象表示,而無需處理設計的特徵。這已經在ImageNet分類任務中的數千個類中得到了經驗證明。<br>與影像分類相比,目標檢測是一項更具挑戰性的任務,需要更複雜的方法來解决。在這種背景下,我們不僅關注於影像的分類,而且還關注於精確估計影像中對象的類別和位置。目標檢測是電腦視覺和數據工程中最困難的問題之一。由於目標表示和機器學習方法的改進,在目標檢測方面取得了許多重大進展,如快速R-CNN[20],它通過使用DNNs對目標建議進行分類,獲得了優异的目標檢測精度。<br>在實際應用中,可能需要基於包含在影像中的對象對給定影像進行分類。例如,我們希望根據影像中的魚類類型將影像分類,如圖1所示。這類圖像識別問題有一些獨特的實際挑戰:首先,與背景相比,目標非常小。標準的基於CNN的方法,如ResNet[7]和更快的R-CNN[20]可以學習船(背景)的特徵,但不能學習魚(對象)。囙此,當呈現包含新船的影像時,它將失敗。其次,不平衡數据集在現實世界中廣泛存在,為分類任務提供了巨大的挑戰。結果,CNN模型可能偏向於大多數訓練樣本量大的類,這樣就很難用很少的訓練樣本對這些類進行分類。第三,在實際應用中,獲取數據的成本很高,這涉及到耗時和勞動密集的過程,例如,必須由該領域的多個專家標記和確認基本事實。如何在有限的訓練數据集下取得良好的訓練效果,無論是在學術界還是在工業界都是一個巨大的挑戰。<br>在這篇文章中,我們通過預先設定一個基於深度學習最新發展的計算框架來解决上述挑戰。首先,提出了兩級檢測方案來處理小目標識別問題。該框架綜合了目標檢測和影像分類方法的優點。我們首先使用最先進的目標檢測方法<br>
正在翻譯中..
 
其它語言
本翻譯工具支援: 世界語, 中文, 丹麥文, 亞塞拜然文, 亞美尼亞文, 伊博文, 俄文, 保加利亞文, 信德文, 偵測語言, 優魯巴文, 克林貢語, 克羅埃西亞文, 冰島文, 加泰羅尼亞文, 加里西亞文, 匈牙利文, 南非柯薩文, 南非祖魯文, 卡納達文, 印尼巽他文, 印尼文, 印度古哈拉地文, 印度文, 吉爾吉斯文, 哈薩克文, 喬治亞文, 土庫曼文, 土耳其文, 塔吉克文, 塞爾維亞文, 夏威夷文, 奇切瓦文, 威爾斯文, 孟加拉文, 宿霧文, 寮文, 尼泊爾文, 巴斯克文, 布爾文, 希伯來文, 希臘文, 帕施圖文, 庫德文, 弗利然文, 德文, 意第緒文, 愛沙尼亞文, 愛爾蘭文, 拉丁文, 拉脫維亞文, 挪威文, 捷克文, 斯洛伐克文, 斯洛維尼亞文, 斯瓦希里文, 旁遮普文, 日文, 歐利亞文 (奧里雅文), 毛利文, 法文, 波士尼亞文, 波斯文, 波蘭文, 泰文, 泰盧固文, 泰米爾文, 海地克里奧文, 烏克蘭文, 烏爾都文, 烏茲別克文, 爪哇文, 瑞典文, 瑟索托文, 白俄羅斯文, 盧安達文, 盧森堡文, 科西嘉文, 立陶宛文, 索馬里文, 紹納文, 維吾爾文, 緬甸文, 繁體中文, 羅馬尼亞文, 義大利文, 芬蘭文, 苗文, 英文, 荷蘭文, 菲律賓文, 葡萄牙文, 蒙古文, 薩摩亞文, 蘇格蘭的蓋爾文, 西班牙文, 豪沙文, 越南文, 錫蘭文, 阿姆哈拉文, 阿拉伯文, 阿爾巴尼亞文, 韃靼文, 韓文, 馬來文, 馬其頓文, 馬拉加斯文, 馬拉地文, 馬拉雅拉姆文, 馬耳他文, 高棉文, 等語言的翻譯.

Copyright ©2024 I Love Translation. All reserved.

E-mail: