src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Under de senaste åren har djupt lärande uppnått stor framgång i många tillämpningar för datorseende. Konvolutionella neurala nätverk (CNN) har nyligen framgått som en viktig metod för bildklassificering. Merparten av forskningen om CNN har hittills fokuserat på att utveckla arkitekturer som Initiations- och resterande nätverk. Konvolutionsskiktet är kärnan i CNN, men få studier har berört själva konvolutionsenheten. I detta dokument inför vi en konvolutionsenhet som kallas den aktiva konvolutionsenheten (ACU). En ny konvolution har ingen fast form, eftersom vi kan definiera alla former av konvolution. Dess form kan läras genom backpropagation under träningen. Vår föreslagna enhet har några fördelar. För det första är ACU en generalisering av konvolution; det kan definiera inte bara alla konventionella konvolutioner, men också konvolutioner med fraktionerade pixelkoordinater. Vi kan fritt ändra formen på konvolutionen, vilket ger större frihet att bilda CNN-strukturer. För det andra lär man sig konvolutionens form under träningen, och det finns ingen anledning att ställa in den för hand. För det tredje kan ACU lära sig bättre än en konventionell enhet, där vi fick förbättringen bara genom att ändra den konventionella konvolutionen till en ACU. Vi testade vår föreslagna metod på enkla och resterande nätverk, och resultaten visade betydande förbättringar med hjälp av vår metod på olika datauppsättningar och arkitekturer i jämförelse med baslinjen. Koden finns tillgänglig på https://github.com/jyh2986/Active-convolution.
Aktiv konvolution REF förstärker provtagningsplatserna i konvolutionen med offset.
16,971,269
Active Convolution: Learning the Shape of Convolution for Image Classification
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,016
Detta dokument beskriver InfoGAN, en informations-teoretisk förlängning till Generative Adversarial Network som kan lära sig disentrangerade representationer på ett helt oövervakat sätt. InfoGAN är ett generativt kontradiktoriskt nätverk som också maximerar den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. Vi får en lägre gräns för det ömsesidiga informationsmålet som kan optimeras effektivt. Specifikt, InfoGAN framgångsrikt löses skriva stilar från siffror former på MNIST dataset, posera från belysning av 3D renderade bilder, och bakgrundssiffror från den centrala siffran på SVHN datasetet. Den upptäcker också visuella begrepp som inkluderar frisyrer, närvaro / frånvaro av glasögon, och känslor på CelebA ansikte dataset. Experiment visar att InfoGAN lär sig tolkningsbara representationer som är konkurrenskraftiga med representationer som lärts av befintliga övervakade metoder.
Det mest relaterade arbetet i detta utrymme är Infogan REF, som lär sig olika representationer utan någon övervakning genom att maximera den ömsesidiga informationen mellan latenta koder och genererade data.
5,002,792
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,017
Vi föreslår nya samarbetsprotokoll för delay-limited sammanhängande blekningskanaler bestående av (halv-duplex och singel-antenna) partners och en cell plats. I vårt arbete skiljer vi mellan reläet, kooperativ sändning (down-link), och kooperativa multi-access (CMA) (up-link) kanaler. De föreslagna protokollen utvärderas med hjälp av Zheng-Tse mångfald-multiplexing kompromiss. För reläkanalen undersöker vi två klasser av samarbetsprogram, nämligen förstärka och framåt (AF) protokoll och avkoda och framåt (DF) protokoll. För den första klassen etablerar vi en övre gräns på den uppnåeliga mångfacetterade kompromissen med ett enda relä. Vi bygger sedan ett nytt AF-protokoll som uppnår denna övre gräns. Den föreslagna algoritmen utvidgas sedan till det allmänna fallet med ( 1) reläer där det visas att överträffa det rymdtidskodade protokollet för Laneman och Wornell utan att kräva avkodning/kodning vid reläerna. För klassen av DF-protokoll, utvecklar vi en dynamisk avkoda och framåt (DDF) protokoll som uppnår den optimala kompromissen för multiplexing vinster 0 1. Dessutom, med ett enda relä, DDF-protokollet visas att dominera klassen av AF-protokoll för alla multiplexing vinster. DDF-protokollets överlägsenhet har visat sig vara viktigare i den kooperativa sändningskanalen. Situationen är omvänd i CMA-kanalen där vi föreslår ett nytt AF-protokoll som uppnår den optimala kompromissen för alla multiplexvinster. Ett utmärkande drag för de föreslagna protokollen i de tre scenarierna är att de inte förlitar sig på ortogonala subrymder, vilket möjliggör en effektivare användning av resurser. I själva verket, med hjälp av våra resultat kan man hävda att suboptimaliteten av tidigare föreslagna protokoll härrör från deras användning av ortogonala subrymder snarare än den halv-duplex begränsningen. Index Terms-Cooperative diversity, mångfald-multiplexing kompromiss, dynamisk avkoda och framåt (DDF), halv-duplex nod, multi-access-kanal, nonorthogonal förstärka och framåt (NAF), reläkanal.
Azarian m.fl. också föreslå det dynamiska protokollet avkoda och framåt (DDF) i REF.
884,827
On the achievable diversity-multiplexing tradeoff in half-duplex cooperative channels
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,018
Många moderna databaser inkluderar personliga och känsliga korrelerade data, såsom privat information om användare anslutna tillsammans i ett socialt nätverk, och mätningar av fysisk aktivitet hos enskilda personer över tid. Differentiell integritet, den nuvarande guldstandarden i dataintegritet, hanterar dock inte integritetsproblem i denna typ av data på ett tillfredsställande sätt. Detta arbete tittar på en nyligen generalisering av differential integritet, som kallas Pufferfish, som kan användas för att behandla integritet i korrelerade data. Den största utmaningen när det gäller att tillämpa Pufferfish är bristen på lämpliga mekanismer. Vi tillhandahåller den första mekanismen - Wassersteinmekanismen - som gäller för alla allmänna Pufferfish-ramar. Eftersom denna mekanism kan vara ineffektiv, tillhandahåller vi ytterligare en mekanism som gäller för vissa praktiska fall som mätning av fysisk aktivitet över tid, och är beräkningseffektiv. Våra experimentella utvärderingar visar att denna mekanism ger integritet och nytta för syntetiska såväl som verkliga data inom två separata domäner.
Sång och al. I REF föreslogs Wasserstein-mekanismen som gäller för alla allmänna Pufferfish-ramar.
12,861,946
Pufferfish Privacy Mechanisms for Correlated Data
{'venue': "SIGMOD '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,019
ABSTRACT Intrusion upptäckt spelar en viktig roll för att säkerställa informationssäkerhet, och den viktigaste tekniken är att korrekt identifiera olika attacker i nätverket. I detta dokument undersöker vi hur man kan modellera ett intrångsdetekteringssystem baserat på djupt lärande, och vi föreslår ett djupt lärande för att upptäcka intrång med hjälp av återkommande neurala nätverk (RNN-IDS). Dessutom studerar vi prestandan hos modellen i binär klassificering och multiklass klassificering, och antalet neuroner och olika inlärningshastighet påverkar prestandan för den föreslagna modellen. Vi jämför det med de av J48, artificiella neurala nätverk, slumpmässig skog, stöd vektor maskin, och andra maskininlärningsmetoder som föreslagits av tidigare forskare på referensdatauppsättningen. De experimentella resultaten visar att RNN-IDS är mycket lämplig för modellering av en klassificeringsmodell med hög noggrannhet och att dess prestanda är överlägsen den hos traditionella maskininlärningsmetoder i både binär och multiklass klassificering. RNN-IDS-modellen förbättrar noggrannheten i intrångsdetekteringen och ger en ny forskningsmetod för intrångsdetektering. Återkommande neurala nätverk, RNN-IDS, intrångsdetektering, djupinlärning, maskininlärning.
I REF studeras prestandan hos RNN-baserade NIDS.
1,946,600
A Deep Learning Approach for Intrusion Detection Using Recurrent Neural Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
82,020
Detta papper introducerar Deep Recurrent Attentive Writer (DRAW) neurala nätverk arkitektur för bildgenerering. DRAW nätverk kombinerar en ny spatial uppmärksamhetsmekanism som efterliknar foveation av det mänskliga ögat, med en sekventiell variation av auto-encoding ram som möjliggör iterativ konstruktion av komplexa bilder. Systemet förbättras avsevärt på state of the art för generativa modeller på MNIST, och när tränas på Street View House Numbers dataset, genererar det bilder som inte kan skiljas från verkliga data med blotta ögat.
Djuprecurrent Attentive Writer (DRAW) REF är ett av de tidiga verk som använder VEAS för att generera bilder med en rumslig uppmärksamhetsmekanism.
1,930,231
DRAW: A Recurrent Neural Network For Image Generation
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,021
Sociala nätverk online har blivit mycket populära; många webbplatser gör det möjligt för användare att interagera och dela innehåll med hjälp av sociala länkar. Användare av dessa nätverk skapar ofta hundratals till och med tusentals sociala länkar med andra användare. Nyligen har forskare föreslagit att undersöka aktivitetsnätverket ett nätverk som bygger på den faktiska interaktionen mellan användare, snarare än bara vänskap-för att skilja mellan starka och svaga länkar. Även om inledande studier har lett till insikter om hur ett aktivitetsnätverk strukturellt skiljer sig från det sociala nätverket självt, har en naturlig och viktig aspekt av aktivitetsnätverket förbisetts: det faktum att sociala länkar med tiden kan bli starkare eller svagare. I detta dokument studerar vi utvecklingen av aktivitet mellan användare i Facebook sociala nätverk för att fånga detta begrepp. Vi finner att länkar i aktivitetsnätverket tenderar att komma och gå snabbt över tiden, och bandens styrka uppvisar en allmänt minskande aktivitetstrend i takt med att den sociala nätverkslänken åldras. Till exempel, bara 30% av Facebook-användare par interagerar konsekvent från en månad till nästa. Intressant nog finner vi också att även om länkarna i aktivitetsnätverket förändras snabbt över tiden, så förblir aktivitetsnätverkets många grafteoretiska egenskaper oförändrade.
Slutligen författarna till REF studera utvecklingen av sociala länkar över tid, genom att studera användarinteraktion.
2,745,943
On the evolution of user interaction in Facebook
{'venue': "WOSN '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,022
I detta dokument utvecklas en praktisk ram för att utnyttja de potentiella fördelarna med fysisk lagersäkerhet i tredimensionella trådlösa sensornätverk (WSN) med hjälp av stokastisk geometri. I sådana nätverk samlas avkänningsdata från fjärrsensorerna in av sänkor med hjälp av åtkomstpunkter, och de externa tjuvlyssnarna avlyssnar dataöverföringarna. Vi fokuserar på den säkra överföringen i två scenarier: 1) de aktiva sensorerna överför sina avkänningsdata till åtkomstpunkterna och 2) de aktiva åtkomstpunkterna vidarebefordrar data till sänkorna. Vi härleder nya kompakta uttryck för den genomsnittliga sekretessgraden i dessa två scenarier. Vi får också ett nytt kompakt uttryck för den totala genomsnittliga sekretessgraden. Numeriska resultat bekräftar vår analys och visar att flera antenner vid åtkomstpunkterna kan öka säkerheten för tre-tier WSNs. Våra resultat visar att ett ökat antal åtkomstpunkter minskar den genomsnittliga sekretessgraden mellan åtkomstpunkten och tillhörande diskbänk. Vi finner dock att en ökning av antalet åtkomstpunkter först ökar den totala genomsnittliga sekretessgraden, med ett kritiskt värde utöver vilket den totala genomsnittliga sekretessgraden sedan minskar. Vid ökning av antalet aktiva sensorer, både den genomsnittliga sekretessgraden mellan sensorn och dess tillhörande åtkomstpunkt, och den totala genomsnittliga sekretessgraden minskar. Att öka antalet sänkor förbättrar däremot både den genomsnittliga sekretessgraden mellan åtkomstpunkten och tillhörande diskbänk och den totala genomsnittliga sekretessgraden. Index Terms-Beamforming, avkoda-och-framåt (DF), fysisk lagersäkerhet, stokastisk geometri, trådlösa sensornätverk (WSN).
Dessa författare härledde kompakta uttryck för den genomsnittliga sekretessgraden för att utvärdera PLS i systemet REF.
3,408,099
Physical Layer Security in Three-Tier Wireless Sensor Networks: A Stochastic Geometry Approach
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,023
Vi introducerar en återkommande neural nätverk språkmodell (RNN-LM) med långtidsminne (LSTM) enheter som använder både tecken-nivå och ordnivå ingångar. Vår modell har en grind som adaptivt finner den optimala blandningen av tecken-nivå och ordnivå ingångar. Porten skapar den slutliga vektor representationen av ett ord genom att kombinera två distinkta representationer av ordet. Ingångarna på teckennivå omvandlas till vektorrepresentationer av ord med hjälp av en dubbelriktad LSTM. Ordnivåns ingångar projiceras in i ett annat högdimensionellt utrymme genom en uppslagstabell. De slutliga vektor representationer av ord används i LSTM språkmodell som förutsäger nästa ord ges alla de föregående orden. Vår modell med gating mekanism använder effektivt tecken-nivå ingångar för sällsynta och out-ofvokabulary ord och överträffar ord-nivå språkmodeller på flera engelska corpora.
Miyamoto och Cho REF använde en gating mekanism för att dynamiskt blanda ord-nivå och tecken-nivå representationer för språkmodeller.
9,662,991
Gated Word-Character Recurrent Language Model
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,024
Att matcha människor över icke-överlappande kameravyer, så kallad personåteridentifiering, är en utmaning på grund av bristen på rumsliga och tidsmässiga begränsningar och stora visuella förändringar som orsakas av variationer i siktvinkel, belysning, bakgrundsförlamning och ocklusion. För att ta itu med dessa utmaningar syftar de flesta tidigare tillvägagångssätt till att extrahera visuella egenskaper som är både distinkta och stabila under utseende förändringar. De flesta visuella egenskaper och deras kombinationer under realistiska förhållanden är dock varken stabila eller särskiljande och bör därför inte användas urskillningslöst. I detta dokument föreslår vi att personen återidentifieras som ett problem med distansundervisningen, som syftar till att lära sig det optimala avståndet som kan maximera matchningsnoggrannheten oavsett val av representation. I detta syfte introducerar vi en ny modell för Probabilistic Relative Distance Comparison (PRDC), som skiljer sig från de flesta befintliga metoder för distansundervisning, i stället för att minimera variation inom klassen samtidigt som den maximerar variation inom klassen, det syftar till att maximera sannolikheten för ett par äkta match med ett mindre avstånd än ett fel matchpar. Detta gör vår modell mer tolerant mot utseendeförändringar och mindre mottaglig för modellövermontering. Omfattande experiment utförs för att visa att 1) genom att formulera personens omidentifieringsproblem som ett problem för distansundervisning, kan märkbar förbättring av matchningsnoggrannheten uppnås mot konventionella personers omidentifieringsmetoder, vilket är särskilt viktigt när utbildningsprovet är litet, och 2) vårt PRDC överträffar inte bara befintliga metoder för distansundervisning utan också alternativa inlärningsmetoder som bygger på att öka och lära sig att rangordna.
Till exempel Zheng et al. REF formulerar omidentifiering av personer som ett problem med distansundervisning oavsett val av representation.
13,619,630
Person re-identification by probabilistic relative distance comparison
{'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']}
82,025
Strömbehandling blir allt viktigare när fler data blir tillgängliga i form av kontinuerliga strömmar och företag konkurrerar om att snabbt ta fram insikter från dem. I sådana applikationer, skjutfönster aggregering är en central operatör, och inkrementell aggregering hjälper till att undvika prestanda straff för omaggregatering från grunden för varje fönster förändring. I detta dokument presenteras Reactive Aggregator (RA), en ny ram för inkrementell glidande fönsteraggregation. RA är allmänt i det att det inte kräver aggregering funktioner för att vara inverterbar eller pendlande, och det kräver inte fönster för att vara FIFO. Vi implementerade RA som en drop-in ersättning för den Aggregate operatören av en kommersiell streaming motor. Eftersom m uppdateringar på ett fönster av storlek n, RA har en algoritmisk komplexitet av Opm`m logpn {mqqq, rivaliserande de bästa tidigare algoritmer för alla m. Dessutom, RA: s genomförande minimerar overheads från tilldelning och pekar traversals genom att använda en enda platt array.
Slutligen utför Reactive Aggregator REF inkrementellt glidfönsteraggregation och kan hantera OoO vickt i O(log n) tid.
16,074,770
General Incremental Sliding-Window Aggregation
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
82,026
Abstract-In färska studier, använder mobila element (MEs) som mekaniska bärare av data har visat sig vara ett effektivt sätt att förlänga sensornätverk livslängd och förmedla information i partitionerade nätverk. Eftersom genereringsfrekvensen för sensorer kan variera, måste vissa sensorer besökas oftare än andra. I detta dokument presenteras en partitioneringsbaserad algoritm som schemalägger ME:s rörelser i ett sensornätverk så att det inte uppstår någon dataförlust på grund av buffertspill. Simuleringsresultat visar att den föreslagna partitioneringsbaserade schemaläggningsalgoritmen (PBS) fungerar bra när det gäller att minska den minsta erforderliga ME-hastigheten för att förhindra dataförlust, ge hög förutsägbarhet i mellanbesökstiderna och minimera dataförlustfrekvensen för de fall då ME begränsas till att röra sig långsammare än den minsta erforderliga ME-hastigheten.
Gu m.fl. REF föreslog en partitioneringsbaserad algoritm för att schemalägga förflyttningen av mobilt element (ME) för att undvika buffertspill i sensorer och minska den minsta erforderliga ME-hastigheten.
16,949,354
Partitioning based mobile element scheduling in wireless sensor networks
{'venue': '2005 Second Annual IEEE Communications Society Conference on Sensor and Ad Hoc Communications and Networks, 2005. IEEE SECON 2005.', 'journal': '2005 Second Annual IEEE Communications Society Conference on Sensor and Ad Hoc Communications and Networks, 2005. IEEE SECON 2005.', 'mag_field_of_study': ['Computer Science']}
82,027
Vi studerar problemet med mängden kunskap om ett kommunikationsnät som måste ges till dess noder för att effektivt sprida information. Medan tidigare resultat om kommunikation i nätverk använt särskilt partiell information tillgänglig för noder, såsom kunskap om grannskapet eller kunskap om nätverket topologi inom någon radie, vår strategi är kvantitativ: vi undersöker det minsta totala antalet bitar av information (minimum oracle storlek) som måste vara tillgängliga för noder för att utföra effektiv kommunikation. Det visar sig att den minsta orakelstorlek för vilken en distribuerad uppgift kan utföras effektivt, kan tjäna som ett mått på svårigheten med denna uppgift. Vi använder denna åtgärd för att göra en kvantitativ åtskillnad mellan svårigheten hos två till synes liknande grundläggande kommunikationsprimära: sändningen och uppvaknandet. I båda av dem en framstående nod, som kallas källan, har ett meddelande, som måste överföras till alla andra noder i nätverket. I uppvaknandet kan endast noder som redan fått källmeddelandet (dvs. är vakna) skicka meddelanden till sina grannar och på så sätt väcka dem. I sändningen kan alla noder skicka styrmeddelanden redan innan de får källkoden, vilket kan underlätta dess framtida spridning. I båda fallen är vi intresserade av att utföra kommunikationsuppgiften med optimal meddelande komplexitet, dvs. att använda ett antal meddelanden linjärt i antalet noder. Vi visar att minsta oraklet storlek tillåter * Stöds av projekten PairAPair av ACI Masses de Données, och FRAGILE av ACI Sécurité Informatique. Ytterligare stöd från INRIA-projektet "Grand Large". † Stöds delvis av NSERCs forskningsanslag och av forskningsprofessuren i Distributed Computing vid Université du Québec en Outaouais. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Uppvakna med ett linjärt antal meddelanden i ett n-node-nätverk, är till (n log n), medan sändningen med ett linjärt antal meddelanden kan uppnås med ett orakle av storlek O(n). Vi visar också att den senare orakelstorleken är nästan optimal: ingen orakel av storlek o(n) kan tillåta att sända med ett linjärt antal meddelanden. Ett effektivt uppvaknande kräver alltså strikt mer information om nätverket än en effektiv sändning.
Ett annat synsätt på problemet med att utvärdera informationens inverkan på prestandan hos nätverksalgoritmer antogs i REF, där ramen för nätverksalgoritmer med rådgivning har införts och använts för att studera uppgiften att sända med ett linjärt antal meddelanden, i modellen för meddelandepassage.
11,810,689
Oracle size: a new measure of difficulty for communication tasks
{'venue': "PODC '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,028
Den gemensamma uppgiften för CoNLL-2011 var att förutsäga samreferens med hjälp av uppgifter från OntoNotes. Resurserna på detta område har tenderat att begränsas till substantiella samreferenser, ofta på ett begränsat antal enheter, t.ex. ACE-enheter. OntoNotes ger en storskalig corpus av allmän anaforisk samreferens inte begränsad till substantiv fraser eller till en specificerad uppsättning av enhetstyper. OntoNotes ger också ytterligare lager av integrerad annotering, fånga ytterligare ytlig semantisk struktur. I detta dokument beskrivs kortfattat kommentaren OntoNotes (medreferens och andra skikt) och sedan parametrarna för den gemensamma uppgiften, inklusive format, förbehandlingsinformation och utvärderingskriterier, och presenteras och diskuteras de resultat som uppnåtts av de deltagande systemen. Med en standard testuppsättning och utvärderingsparametrar, alla baserade på en ny resurs som ger flera integrerade annotering lager (parses, semantiska roller, ord sinnen, namngivna enheter och coreferens) som kan stödja gemensamma modeller, bör bidra till att stimulera pågående forskning i uppgiften att enhet och händelse coreferens.
Version 4.0 av OntoNotes data distribuerades inom ramen för CONLL 2011 delad uppgift om coreferens resolution REF.
11,898,554
CoNLL-2011 Shared Task: Modeling Unrestricted Coreference in OntoNotes
{'venue': 'Proceedings of the Fifteenth Conference on Computational Natural Language Learning: Shared Task', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,029
Vi etablerar en data-beroende begrepp av algoritmisk stabilitet för Stochastic Gradient Descent (SGD) och använder den för att utveckla nya generalisering gränser. Detta är i motsats till tidigare distributionsfria algoritmiska stabilitetsresultat för SGD som är beroende av de värsta konstanterna. På grund av det databeroende argumentet ger våra gränser nya insikter i lärande med SGD om konvexa och icke-konvexa problem. I det konvexa fallet visar vi att gränsen på generaliseringsfelet är multiplikativ i risken vid initieringspunkten. I det icke-konvexa fallet bevisar vi att den förväntade krökningen av den objektiva funktionen runt initieringspunkten har ett avgörande inflytande på generaliseringsfelet. I båda fallen föreslår våra resultat en enkel datadriven strategi för att stabilisera SGD genom att förhandsscreena dess initiering. * ilja.kuzborskij@idiap.ch, arbete utfört på IST Österrike.
Kuzborskij och Lampert REF ger databeroende generaliseringsgränser för SGD vid smidiga konvexa och icke konvexa förluster baserade på stabilitet.
3,351,158
Data-Dependent Stability of Stochastic Gradient Descent
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,030
Vi ställer en ny och spännande fråga som motiveras av distribuerad dator om slumpmässiga promenader på grafer: Hur lång tid tar det för flera oberoende slumpmässiga promenader, med början från samma vertex, att täcka en hel graf? Vi studerar omslaget tid-den förväntade tid som krävs för att besöka varje nod i en graf minst en gång-och vi visar att för en stor samling av intressanta grafer, kör många slumpmässiga promenader parallellt ger en upptrappning i omslaget tid som är linjär i antalet parallella promenader. Vi visar att en exponentiell upptrappning ibland är möjlig, men att vissa naturliga grafer bara tillåter en logaritmisk upptrappning. Ett problem i samband med vårt (där promenaderna utgår från en probabilistisk distribution på hörn) studerades tidigare i samband med rymdeffektiva algoritmer för oriktad st-anslutning och våra resultat ger i vissa fall en förbättring på några av de tidigare gränserna.
Nyligen, Alon et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF visar att utföra flera slumpmässiga promenader parallellt minskar omslagstiden i olika typer av grafer.
6,527,073
Many random walks are faster than one
{'venue': "SPAA '08", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,031
Infrastruktur som kod (IaC) är praxis för att specificera datorsystemkonfigurationer genom kod, och hantera dem genom traditionella programvarutekniska metoder. Ett brett antagande av konfigurationshantering och ökad storlek och komplexitet av den tillhörande koden, snabbt för att bedöma, underhålla och förbättra konfigurationskodens kvalitet. I detta sammanhang kan traditionell kunskap om programvaruteknik och bästa praxis i samband med kvalitetsstyrning av koder utnyttjas för att bedöma och hantera konfigurationskoders kvalitet. Vi föreslår en katalog över 13 implementation och 11 design konfiguration lukter, där varje lukt bryter mot rekommenderade bästa praxis för konfigurationskod. Vi analyserade 4 621 Puppet arkiv som innehåller 8,9 miljoner rader kod och upptäckte katalogiserade implementation och design konfiguration lukter. Vår analys visar att designkonfigurationen dofter visar 9% högre genomsnittlig samtidig förekomst mellan sig än genomförandet konfiguration dofter. Vi noterade också att konfigurationsdofter som hör till en luktkategori tenderar att samexistera med konfigurationsdofter som hör till en annan luktkategori när korrelation beräknas av volymen av identifierade lukter. Slutligen, design konfiguration lukt densitet visar negativ korrelation medan genomförande konfiguration lukt densitet uppvisar ingen korrelation med storleken på ett konfigurationshanteringssystem.
Sharma m.fl. REF analyserade 4,621 Puppet-förråd och upptäckte katalogiserade implementations- och designkonfigurationsdofter.
1,488,907
Does your configuration code smell?
{'venue': "MSR '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,032
Vi introducerar en ny uppifrån-och-ner-pipeline för att upptäcka scentext. Vi föreslår en roman Cascaded Convolutional Text Network (CCTN) som förenar två skräddarsydda konvolutionella nätverk för grov-till-fin text lokalisering. CCTN snabbt detekterar textregioner ungefär från en bild med låg upplösning, och lokaliserar sedan exakt textrader från varje förstorad region. Vi kastar tidigare teckenbaserad upptäckt i direkt text regionuppskattning, undvika flera bottomup efter bearbetning steg. Den uppvisar överraskande robusthet och diskriminerande kraft genom att betrakta hela textregionen som detektionsobjekt som ger stark semantisk information. Vi anpassar convolutional nätverk genom att utveckla rektangel konvolutioner och flera i-nätverk fusioner. Detta gör det möjligt att hantera flerformig och flerskalig text på ett effektivt sätt. Dessutom är CCTN beräkningseffektivt genom att dela konvolutionella beräkningar, och hög nivå egenskap gör det möjligt att vara invariant till olika språk och flera orienteringar. Den uppnår 0,84 och 0,86 F-åtgärder för ICDAR 2011 och ICDAR 2013, vilket ger betydande förbättringar jämfört med de senaste resultaten [23, 1].
Till exempel, Han et al. I REF föreslogs en grov-till-fin FCN som upptäcker scentexter genom att extrahera textregioner och textcentrallinjer.
7,501,698
Accurate Text Localization in Natural Image with Cascaded Convolutional Text Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,033
Dagens samhälle är i hög grad beroende av en rad komplexa nationella och internationella infrastrukturnät, såsom transporter, allmännyttiga tjänster, telekommunikationer och till och med finansiella nät. Medan modellering och simuleringsverktyg har gett insikt i beteendet hos enskilda infrastrukturnätverk, ett mycket mindre förstådd område är de inbördes sambanden mellan flera infrastrukturnätverk inklusive de potentiella kaskadeffekter som kan resultera i dessa ömsesidiga beroenden. I detta dokument beskrivs först infrastrukturernas ömsesidiga beroenden samt en formalisering av olika typer av ömsesidigt beroende. Därefter beskriver tidningen en modellerings- och simuleringsram kallad CIMS © och det arbete som utförs på Idaho National Laboratory (INL) för att modellera och simulera infrastrukturberoenden och de komplexa beteenden som kan resultera i. I dessa tider av nationella säkerhetsfrågor efter attackerna den 11 september och i kölvattnet av orkanerna Katrina och Rita har diskussionen om skydd och återställande av "Kritisk infrastruktur" ökat som en nationell angelägenhet och forskningsområde. Den amerikanska Patriot Act definierar kritisk infrastruktur som "system och tillgångar, vare sig fysiska eller virtuella, så avgörande för USA att oförmåga eller förstörelse av sådana system och tillgångar skulle ha en försvagande inverkan på säkerhet, nationell ekonomisk säkerhet, nationell folkhälsa eller säkerhet, eller någon kombination av dessa frågor" (USA. Fokus för denna forskning ligger dock inte på enskilda infrastrukturer, utan på sammanflätningen av resurser och informationskrav som finns mellan dem. Framsteg inom informationstekniken (IT) och behovet av att förbättra effektiviteten har resulterat i infrastrukturer som blivit alltmer automatiserade och sammanlänkade. De flesta moderna kommersiella infrastrukturer består av en samling sammankopplade nät (både fysiska och datorbaserade) som tjänar olika syften och har olika ägare. Även delar av informationen som finns i ett enda delnätverk kan ha olika syften och olika ägare. Kritisk information och kontroller överförs mellan dessa komponenter för att samordna nödvändiga funktioner. Komplexiteten och det ömsesidiga beroendet av dessa kritiska resursflöden medför nyanser och potentiella sårbarheter i infrastrukturen. Naturkatastrofer, avsiktliga attacker eller oavsiktliga systemfel inom infrastrukturen kan leda till kaskadeffekter som varken är lätta att se eller omedelbart förstå. I detta dokument undersöks frågorna om modellering, simulering och analys av ömsesidigt beroende. Resten av avsnitt 1 diskuterar infrastrukturen ytterligare. Avsnitt två behandlar infrastrukturberoenden och ger formalism för dessa beroenden. I avsnitt tre presenteras därefter en programvaruram kallad Critical Infrastructure Modeling System (CIMS © ) som används vid Idaho National Laboratory (INL) för kritisk infrastruktur för analys av ömsesidigt beroende.
I REF beskriver författarna ett ramverk som kallas CIMS och det arbete som utförs på Idaho National Laboratory för att modellera och simulera infrastrukturberoenden och de komplexa beteenden som kan ge resultat.
11,387,945
CIMS: a framework for infrastructure interdependency modeling and analysis
{'venue': "WSC '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,034
Drivs av de framväxande nätverksapplikationer, frågor och gruvdrift osäkra grafer har blivit allt viktigare. I detta dokument undersöker vi ett grundläggande problem när det gäller osäkra grafer, som vi kallar problemet med avståndsbegränsning (DCR): Med tanke på två hörn s och t, hur stor är sannolikheten att avståndet från s till t är mindre än eller lika med en användardefinierad tröskel d i den osäkra grafen? Eftersom detta problem är #P-Complete fokuserar vi på att effektivt och exakt approximera DCR online. Våra huvudresultat inkluderar två nya estimatorer för den probabilistiska nåbarheten. Den ena är en estimator av Horvitz-Thomson-typ baserad på det ojämlika probabilistiska provtagningsschemat, och den andra är en ny rekursiv provtagningsestimator, som effektivt kombinerar ett deterministiskt rekursivt beräkningsförfarande med en provtagningsprocess för att öka skattningsnoggrannheten. Båda estimatorerna kan producera mycket mindre varians än den direkta provtagningsestimatorn, som anser att varje försök antingen är 1 eller 0. Vi presenterar också metoder för att göra dessa estimatorer mer beräkningseffektiva. Den omfattande experimentutvärderingen av både verkliga och syntetiska datauppsättningar visar effektiviteten och noggrannheten hos våra nya estimatorer.
Till exempel Jin et al. REF studerade möjligheten att uppnå avståndsbegränsningar i osäkra grafer där förekomsten av en kant anges med sannolikhet, och fråga vad som är sannolikheten att avståndet från s till t är mindre än eller lika med en användardefinierad tröskel d i en osäker graf.
7,635,370
Distance-Constraint Reachability Computation in Uncertain Graphs
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
82,035
Detta dokument beskriver en automatiserad metod för att förutsäga antalet satelliter som är synliga för en GPS-mottagare, när som helst på jordens yta. Intervisibilitetsanalys mellan en GPS-mottagare och varje potentiellt synlig GPS-satellit utförs med hjälp av ett antal olika ytmodeller och satellitbanors beräkningar. Den utvecklade programvaran kan fungera med olika efemerisdata, och kommer att beräkna satellitsikt i realtid. Förutsägelse om satellittillgång i realtid är mycket användbar för mobila tillämpningar som navigationssystem i bilar, personliga navigationssystem och LBS. Genomförandet av metoden beskrivs och resultaten rapporteras.
I REF beskrivs en automatiserad metod för att förutsäga antalet satelliter som är tillgängliga för en GPS-mottagare, när som helst på jordens yta.
22,244,223
Modelling and prediction of GPS availability with digital photogrammetry and LiDAR
{'venue': None, 'journal': 'International Journal of Geographical Information Science', 'mag_field_of_study': ['Computer Science']}
82,036
I detta förhållningssätt till namngiven enhet igenkänning, ett återkommande neuralt nätverk, känd som Long Short-Term Memory, tillämpas. Nätverket utbildas för att utföra 2 passerar på varje mening, vilket ger sina beslut om det andra passet. Det första passet används för att skaffa information för disambiguation under det andra passet. SARD-NET, en självorganiserande karta för sekvenser används för att generera representationer för de lexiska objekt som presenteras för LSTM-nätverket, medan ortogonala representationer används för att representera delen av tal- och bittaggar.
REF är det första arbetet att använda Long Short-Term Memory (LSTM) för NER.
1,160,080
Named Entity Recognition With Long Short-Term Memory
{'venue': 'Conference On Computational Natural Language Learning CoNLL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,037
Storskaliga maskininlärningsalgoritmer (ML) är ofta iterativa, med upprepad lässkyddad dataåtkomst och I/Obound matris-vektor multiplikationer för att konvergera till en optimal modell. Det är viktigt för prestanda att passa in data i single-node eller distribuerat huvudminne. Generella, tunga och lätta kompressionstekniker kämpar för att uppnå både bra kompressionsförhållanden och snabb dekompressionshastighet för att möjliggöra blockvis okomprimerade operationer. Därför inleder vi arbetet med komprimerad linjär algebra (CLA), där lätta databaskompression tekniker tillämpas på matriser och sedan linjär algebra operationer såsom matris-vektorn multiplikation utförs direkt på komprimerade representationer. Vi bidrar med effektiva kolonnkompressionssystem, cachemedvetna operationer och en effektiv provtagningsbaserad komprimeringsalgoritm. Våra experiment visar att CLA uppnår i-minnesoperationer prestanda nära det okomprimerade fallet och bra kompressionsförhållanden som gör att vi kan passa större datauppsättningar i tillgängligt minne. Vi får därmed betydande prestandaförbättringar från end-to-end upp till 26x eller minskade minneskrav.
Vissa komprimeringsalgoritmer REF är utvecklade för både bra kompressionsförhållanden och snabb dekompressionshastighet för att möjliggöra blockvis okomprimerade operationer, såsom matris multiplikation utförs direkt på komprimerade representationer.
63,990,670
Compressed Linear Algebra for Large-Scale Machine Learning
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
82,038
Datorer är en affärsmodellrevolution mer än en teknologisk revolution. Det utnyttjade olika tekniker som har visat sig och omformat användningen av datorer genom att ersätta deras lokala användning med en centraliserad där delade resurser lagras och förvaltas av en tredje part på ett sätt som är öppet för slutanvändarna. Med denna nya användning kom nya behov och en av dem är behovet av att söka genom molntjänster och välja de som uppfyller vissa krav. För att tillgodose detta behov har vi i ett tidigare arbete utvecklat Cloud Service Research and Selection System (CSRSS) som syftar till att göra det möjligt för molnanvändare att söka genom molntjänster i databasen och hitta dem som motsvarar deras krav. Det är baserat på Skyline och ELECTRE IS. I detta dokument förbättrar vi systemet genom att införa sju nya dimensioner relaterade till QoS-begränsningar. Vårt arbetes viktigaste bidrag är att få fram en agent som använder både Skyline och en outrankingsmetod, kallad ELECTREIsSkyline, för att avgöra vilka molntjänster som bättre uppfyller användarnas krav samtidigt som QoS-egenskaperna respekteras. Vi programmerade och testade denna metod för totalt 10 dimensioner och för 50 000 molntjänster. De första resultaten är mycket lovande och visar hur effektivt vårt tillvägagångssätt är.
I REF förbättrade författarna det tidigare arbetet med Cloud Search and Selection System (CSRSS) genom att införa sju nya dimensioner relaterade till QoS begränsningar.
10,547,221
Integration of QoS aspects in the Cloud Computing Research and Selection System
{'venue': 'International Journal of Advanced Computer Science and Application (IJACSA) Vol. 6, No. 6, 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,039
I detta dokument föreslår vi ett mycket enkelt nätverk för djupinlärning för bildklassificering som bygger på mycket grundläggande databehandlingskomponenter: 1) kaskad huvudkomponentanalys (PCA); 2) binär hashing; och 3) blockwise histogram. I den föreslagna arkitekturen används partnerskaps- och samarbetsavtalet för att lära sig flerstegsfilterbanker. Detta följs av enkel binär hashing och blockera histogram för indexering och pooling. Denna arkitektur kallas alltså PCA-nätverket (PCANet) och kan utformas och läras mycket enkelt och effektivt. För jämförelse och för att ge en bättre förståelse introducerar och studerar vi också två enkla varianter av PCANet: 1) RandNet och 2) LDANet. De delar samma topologi som PCANet, men deras kaskadfilter är antingen slumpmässigt utvalda eller inlärda från linjär diskriminant analys. Vi har i stor utsträckning testat dessa grundläggande nätverk på många referens visuell datauppsättningar för olika uppgifter, inklusive Labeled Faces in the Wild (LFW) för ansiktsverifiering; MultiPIE, Extended Yale B, AR, Facial Recognition Technology (FERET) datauppsättningar för ansiktsigenkänning; och MNIST för handskriven sifferigenkänning. Förvånansvärt nog, för alla uppgifter, en sådan till synes naiv PCANet-modell är i nivå med de state-of-the-art funktioner antingen prefixed, mycket handgjorda, eller noggrant lärt [av djupa neurala nätverk (DNN)]. Ännu mer förvånande, modellen sätter nya poster för många klassificeringsuppgifter på Extended Yale B, AR, och FERET datamängder och på MNIST variationer. Ytterligare experiment på andra offentliga datamängder visar också potentialen hos PCANet att fungera som en enkel men mycket konkurrenskraftig baslinje för texturklassificering och objektigenkänning.
Slutligen klassificerades kandidatregionerna av Component Analysis Network (PCANet) REF och neurala nätverk.
206,725,404
PCANet: A Simple Deep Learning Baseline for Image Classification?
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,040
Abstract-I detta dokument anser vi problemet med maximering av trådlös nätverkskapacitet (alias. one-shot schemaläggning) i både protokoll och fysiska modeller. Vi ger de första distribuerade algoritmerna med bevisbara garantier i den fysiska modellen, och visar hur de kan generaliseras till mer komplicerade mått och inställningar där de fysiska antagandena kränks något. Vi ger också de första algoritmerna i protokollmodellen som inte antar sändare kan samordna med sina grannar i interferens grafen, så varje sändare väljer om att sända enbart baserat på lokala händelser. Våra tekniker drar kraftigt från algoritmisk spelteori och maskininlärning teori, även om vårt mål är en distribuerad algoritm. Faktum är att våra huvudsakliga resultat tillåter varje sändare att köra vilken algoritm som helst den vill, så länge dess algoritm har en lärande-teoretisk egenskap som kallas no-regret i en spel-teoretisk inställning.
Problemet med hur man maximerar nätkapaciteten diskuteras också REF.
11,366,805
Distributed Algorithms for Approximating Wireless Network Capacity
{'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
82,041
Konvolutionella neurala nätverk (CNN) har visat anmärkningsvärda resultat under de senaste åren för ett brett spektrum av datorseende uppgifter. En ny arkitektur som nyligen introducerats av Sabour et al. [2017], kallas en kapsel nätverk med dynamisk routing, har visat stora initiala resultat för sifferigenkänning och liten bildklassificering. Framgången för kapselnätverk ligger i deras förmåga att bevara mer information om inmatningen genom att ersätta max-pooling lager med konvolutionella steg och dynamisk routing, vilket gör det möjligt att bevara delar av hela relationer i data. Detta bevarande av inmatningen visas genom att man rekonstruerar inmatningen från utsignalkapselvektorerna. Vårt arbete utökar användningen av kapselnätverk till uppgiften av objekt segmentering för första gången i litteraturen. Vi utökar idén om konvolutionella kapslar med lokalt sammankopplade routing och föreslår begreppet dekonvolutionella kapslar. Vidare utvidgar vi den maskerade rekonstruktionen för att rekonstruera den positiva insatsklassen. Den föreslagna convolutionaldeconvolutional kapsel nätverk, kallas SegCaps, visar starka resultat för uppgiften att objekt segmentering med betydande minskning av parameter utrymme. Som exempel applicerade vi de föreslagna SegCaps för att segmentera patologiska lungor från lågdos CT-skanningar och jämförde dess noggrannhet och effektivitet med andra U-Net-baserade arkitekturer. SegCaps kan hantera stora bildstorlekar (512 × 512) i motsats till utgångskapslar (vanligtvis mindre än 32 × 32). De föreslagna SegCaps minskade antalet parametrar för U-Net arkitektur med 95,4% samtidigt som den ger en bättre segmenteringsnoggrannhet.
Rodney och Al. I REF föreslås ett konvolutionellt dekonvolutionellt kapselnät, som utvidgar kapselnätverken till att omfatta segmentering och föreslår begreppet dekonvolutionella kapslar.
4,786,989
Capsules for Object Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,042
Abstrakt. Skapandet av unika nycklar av integrerade kretsar (IC) har viktiga tillämpningar inom områden som immaterialrätt (IP) kontraplagiat och inbyggd säkerhetsintegration. För detta ändamål, Fysiska Unclonable Functions (PUF) har föreslagits att bygga manipuleringsbeständig hårdvara genom att utnyttja slumpmässiga processvariationer. Befintliga PUFs lider av ökad overhead till den ursprungliga designen på grund av deras specifika funktioner för att generera unika nycklar och / eller routing begränsningar. I detta dokument föreslår vi en ny minnescellsbaserad PUF (MECCA PUF), som utför autentisering genom att utnyttja de inneboende processvariationerna i läs-/skrivsäkerhet hos celler i statiska minnen. Tillförlitligheten av celler kännetecknas efter tillverkning genom att inducera temporal fel, såsom skriva och komma åt fel i cellerna med hjälp av en programmerbar ordlinje pliktcykel controller. Eftersom de flesta moderna konstruktioner redan har betydande mängd inbäddat minne, medför det föreslagna tillvägagångssättet mycket lite overhead (<1 %) jämfört med befintliga PUF-konstruktioner. Simuleringsresultat för 1000 chips med 10% inter-die variationer visar att PUF ger stort urval av utmaning-respons par med hög unikhet (49,9% genomsnittlig inter-die Hamming avstånd) och utmärkt reproducerbarhet (0,85% genomsnittlig intra-die Hamming avstånd).
Skrivfel införs (avsiktligt) i en SRAM-matris genom en programmerbar wordline duty-cycle controller för att generera unika svar i REF.
15,404,823
MECCA: a robust low-overhead PUF using embedded memory array
{'venue': 'CHES', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,043
Abstract-Network operatörer måste ha en tydlig synlighet i de applikationer som körs i deras nätverk. Detta är avgörande för både säkerhet och nätverkshantering. De senaste åren har det skett en exponentiell ökning av antalet smarta telefonappar som har komplicerat denna uppgift. Traditionella metoder för trafikklassificering är inte längre tillräckliga eftersom majoriteten av denna smarta telefonapptrafik transporteras över HTTP/HTTPS. Att hålla jämna steg med de nya applikationer som kommer upp varje dag är mycket utmanande och tidskrävande. Vi presenterar en ny teknik för att automatiskt generera nätverksprofiler för att identifiera Android-appar i HTTP-trafiken. En nätverksprofil består av fingeravtryck, dvs. unika egenskaper hos nätverkets beteende, som kan användas för att identifiera en app. För att profilera en Android-app kör vi appen automatiskt i en emulator och samla nätverksspår. Vi har utvecklat en ny UI fuzzing teknik för att köra appen så att olika utförande vägar utövas, vilket är nödvändigt för att bygga en omfattande nätverksprofil. Vi har också utvecklat en lättviktsteknik, för att extrahera fingeravtryck, som bygger på att identifiera invarianter i de genererade spåren. Vi använde vår teknik för att generera nätverksprofiler för tusentals appar. Med hjälp av våra nätverksprofiler kunde vi upptäcka närvaron av dessa appar i verkliga nätverkstrafikloggar från en mobil leverantör.
Dai m.fl. köra mobilappar i en övervakad emulator och använda UI fuzzing för att bygga en omfattande nätverksprofil för varje program REF.
6,732,463
NetworkProfiler: Towards automatic fingerprinting of Android apps
{'venue': '2013 Proceedings IEEE INFOCOM', 'journal': '2013 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
82,044
Abstract Aktivt lärande och crowdsourcing är lovande sätt att effektivt bygga upp utbildningsset för objektigenkänning, men hittills har tekniker testats i artificiellt kontrollerade miljöer. Vanligtvis har visionsforskaren redan fastställt datasetets omfattning, etiketterna "aktivt" som erhållits är i själva verket redan kända, och/eller den crowd-sourced insamlingsprocessen är iterativt finjusterad. Vi presenterar en strategi för levande lärande av objekt detektorer, där systemet autonomt förfinar sina modeller genom att aktivt begära crowd-sourced anteckningar på bilder som kröp från webben. För att ta itu med de tekniska frågor som ett sådant storskaligt system innebär, introducerar vi en ny delbaserad detektor som kan användas för linjära klassificeringar, och visar hur man identifierar sina mest osäkra fall i underlinjär tid med en hashbaserad lösning. Vi demonstrerar tillvägagångssättet med experiment av aldrig tidigare skådad skala och autonomi, och visar det framgångsrikt förbättrar state-of-the-art för de mest utmanande objekten i PASCAL VOC-riktmärket. Dessutom visar vi att vår detektor konkurrerar väl med populära ickelinjära klassiatorer som är mycket dyrare att träna.
Verket REF tillämpar aktivt lärande om objektdetektering och tillvägagångssättet syftar till att hantera en stor mängd bilder som kröp online.
1,721,452
Large-Scale Live Active Learning: Training Object Detectors with Crawled Data and Crowds
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
82,045
Vid lärande med flera uppgifter löses flera uppgifter gemensamt, och man delar induktiva fördomar mellan dem. Att lära sig flera uppgifter är till sin natur ett multiobjektivt problem eftersom olika uppgifter kan stå i konflikt med varandra, vilket kräver en kompromiss. En gemensam kompromiss är att optimera ett proxymål som minimerar en viktad linjär kombination av pertaskförluster. Detta är dock endast giltigt när uppgifterna inte konkurrerar, vilket sällan är fallet. I detta dokument kastar vi uttryckligen lärande med flera uppgifter som multi-objektiv optimering, med det övergripande målet att hitta en Pareto optimal lösning. I detta syfte använder vi algoritmer utvecklade i den lutningsbaserade multiobjektiva optimeringslitteraturen. Dessa algoritmer är inte direkt tillämpliga på storskaliga inlärningsproblem eftersom de skalas dåligt med dimensionaliteten i gradienterna och antalet uppgifter. Vi föreslår därför en övre gräns för den multi-objektiva förlusten och visar att den kan optimeras effektivt. Vi bevisar vidare att optimera denna övre gräns ger en Pareto optimal lösning under realistiska antaganden. Vi tillämpar vår metod på en mängd olika djupinlärningsproblem med flera uppgifter, bland annat sifferklassificering, scenförståelse (gemensam semantisk segmentering, till exempel segmentering och djupuppskattning) och multimärkningsklassificering. Vår metod producerar mer högpresterande modeller än de senaste multi-task lärande formuleringar eller per-task utbildning.
Senser och Koltun REF föreslår att man optimerar en övre gräns för multiobjektiva förluster.
52,957,972
Multi-Task Learning as Multi-Objective Optimization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,046
Statisk analys har framgångsrikt använts på många områden, från att verifiera uppdragskritisk programvara till malware upptäckt. Tyvärr, statiska analyser ofta ger falska positiva, vilket kräver betydande manuella ansträngningar att lösa. I denna uppsats visar vi hur man överlagrar en probabilistisk modell, tränad med hjälp av domänkunskap, på toppen av statiska analysresultat, för att triagera statiska analysresultat. Vi tillämpar denna idé för att analysera mobila applikationer. Android-programkomponenter kan kommunicera med varandra, både inom enstaka applikationer och mellan olika applikationer. Tyvärr, tekniker för att statiskt infer Inter-Komponent Communication (ICC) ger många potentiella inter-komponent och interapplication länkar, varav de flesta är falska positiva. I stora skalor är det helt enkelt inte möjligt att granska alla potentiella kopplingar. Vi lägger därför över en probabilistisk modell av ICC på toppen av statiska analysresultat. Eftersom beräkning av interkomponentlänkar är en förutsättning för interkomponentanalys, introducerar vi en formalism för att härleda ICC-länkar baserade på fastställda begränsningar. Vi designar en effektiv algoritm för att utföra länkupplösning. Vi beräknar alla potentiella länkar i en corpus av 11.267 applikationer på 30 minuter och triage dem med vår probabilistiska strategi. Vi finner att över 95,1% av alla 636 miljoner potentiella länkar är förknippade med sannolikhetsvärden under 0,01 och är därmed sannolikt ogenomförbara länkar. Således är det möjligt att endast överväga en liten del av alla länkar utan betydande förlust av information. Detta arbete är det första viktiga steget i att göra statisk inter-application analys mer lätthanterlig, även på stora skalor.
primo REF var den första att formalisera icc länk resolutionsprocessen.
1,774,650
Combining static analysis with probabilistic models to enable market-scale Android inter-component analysis
{'venue': 'POPL 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,047
Vi beskriver trädredigeringsmodeller för att representera sekvenser av trädomvandlingar med komplexa omordningsfenomen och visar att de erbjuder en enkel, intuitiv och effektiv metod för att modellera par av semantiskt relaterade meningar. För att effektivt extrahera sekvenser av redigeringar använder vi en trädkärna som en heuristisk i en girig sökrutin. Vi beskriver en logistisk regressionsmodell som använder 33 syntaktiska funktioner i redigeringssekvenser för att klassificera meningsparen. Metoden leder till konkurrenskraftiga resultat när det gäller att erkänna textförståelse, parafrasidentifiering och svarsval för svar på frågor.
REF utvecklar en förbättrad Tree Edit Distance (TED) modell för att lära trädomvandlingar i ett q/a par.
279,533
Tree Edit Models for Recognizing Textual Entailments, Paraphrases, and Answers to Questions
{'venue': 'Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,048
Abstract-Distributed länk-flooding attacker utgör en ny klass av attacker med potential att segmentera stora områden av Internet. Deras distribuerade natur gör det mycket svårt att upptäcka och mildra. I detta arbete föreslås en ny ram för analysmodellering och optimal begränsning av sådana attacker. Detektionen är modellerad som ett problem av relational algebra, som representerar associationen av potentiella angripare (bots) till potentiella mål. Analysen syftar till att optimalt lösa upp alla utom de illvilliga associationerna. Ramverket är implementerat på online Traffic Engineering (TE), som naturligtvis utlöses av länköversvämningar. Den viktigaste idén är att kontinuerligt omdirigera trafiken på ett sätt som gör det mycket osannolikt att man ihållande deltar i länköverflödande händelser för någon godartad källa. Botarna tvingas därför anta ett misstänkt beteende för att förbli effektiva och avslöja sin närvaro. TE:s mål för belastningsbalansering påverkas inte alls. Omfattande simuleringar på olika topologier validerar våra analytiska resultat.
Liaskos m.fl. föreslog en ny ram som implementerar online trafikteknik (TE) och kontinuerligt omdirigerar trafiken på ett sätt som gör bestående begränsning efter LFA händelser hända REF.
8,892,586
A Novel Framework for Modeling and Mitigating Distributed Link Flooding Attacks
{'venue': 'IEEE INFOCOM 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,049
Med den snabba tillväxten av bild- och videodata på webben har hashing studerats ingående för bild- eller videosökning under de senaste åren. Genom att dra nytta av den senaste tidens framsteg i fråga om djupinlärning har djupgående haschmetoder uppnått lovande resultat när det gäller bildsökning. Det finns dock vissa begränsningar för tidigare djupgående haschmetoder (t.ex. utnyttjas inte den semantiska informationen fullt ut). I detta dokument utvecklar vi en djupt övervakad diskret hashing algoritm baserat på antagandet att de lärda binära koderna bör vara idealiska för klassificering. Både parvis märkningsinformation och klassificeringsinformation används för att lära sig hashkoderna inom en strömram. Vi begränsar utgångarna i det sista lagret till att vara binära koder direkt, vilket sällan undersöks i djup hashing algoritm. På grund av hashkodernas diskreta karaktär används en alternerande minimeringsmetod för att optimera den objektiva funktionen. Experimentella resultat har visat att vår metod överträffar nuvarande toppmoderna metoder på referensdatauppsättningar.
För att ytterligare utforska optimeringsprocessen använder djupt övervakad diskret hashing (DSDH) REF den pairwise etikettinformationen och klassificeringsinformationen för att lära sig hashkoderna.
12,273,322
Deep Supervised Discrete Hashing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,050
Abstract-In overdeployed sensor nätverk, en metod för att spara energi är att hålla bara en liten del av sensorerna aktiva när som helst. I den här artikeln, vi anser problemet med att välja en minsta storlek ansluten K-omslag, som definieras som en uppsättning sensorer M sådan att varje punkt i sensornätverket "täcks" av minst K olika sensorer i M, och den kommunikationskurva som induceras av M är ansluten. För ovanstående optimeringsproblem designar vi en centraliserad approximationsalgoritm som levererar en nära-optimal (inom en faktor av O (lgn)) lösning och presenterar en distribuerad version av algoritmen. Vi presenterar också en kommunikationseffektiv lokaliserad distribuerad algoritm som empiriskt visat sig fungera bra.
Ref har utökat problemet ytterligare och har övervägt valet av en minsta storlek på sensornoder som är anslutna på ett sådant sätt att varje punkt inom målområdet täcks av minst k-sensorer.
75,346
Connected K-coverage problem in sensor networks
{'venue': 'Proceedings. 13th International Conference on Computer Communications and Networks (IEEE Cat. No.04EX969)', 'journal': 'Proceedings. 13th International Conference on Computer Communications and Networks (IEEE Cat. No.04EX969)', 'mag_field_of_study': ['Computer Science']}
82,051
I den här artikeln presenterar vi kinesiska ordsegmenteringsalgoritmer baserade på den så kallade LMR-märkning. Våra LMR-taggers implementeras med Maximum Entropy Markov Model och vi använder sedan Transformation-Based Learning för att kombinera resultaten av de två LMR-taggers som skannar indata i motsatta riktningar. Vårt system uppnår F-poäng av ¢ ¡ ¤ £ ¥ § till och © £ ¥ § på Academia Sinica corpus respektive Hong Kong City University corpus. Till skillnad från engelsk text där meningar är sekvenser av ord avgränsade av vita mellanslag, representeras meningar i kinesisk text som strängar av kinesiska tecken eller hanzi utan liknande naturliga avgränsningar. Därför är det första steget i ett kinesiskt språk bearbetning uppgift att identifiera sekvensen av ord i en mening och markera gränser på lämpliga platser. Detta kan låta enkelt nog men i verkligheten identifiera ord på kinesiska är ett icke-trivialt problem som har dragit en stor mängd forskning i den kinesiska språkbearbetning gemenskapen (Fan och Tsai, 1988; Gan et al., 1996; Sproat et al., 1996; Wu, 2003; Xue, 2003). Nyckeln till exakt automatisk ordidentifiering på kinesiska ligger i en framgångsrik lösning av tvetydigheter och ett korrekt sätt att hantera ord utanför ordförrådet. De tvetydigheter i kinesiska ord segmentering beror på det faktum att en hanzi kan förekomma i olika ord interna positioner (Xue, 2003). Med tanke på det rätta sammanhanget, som i allmänhet föreskrivs i den mening i vilken det förekommer, kan en hanzis ställning fastställas. I detta papper modellerar vi det kinesiska ordet segmentering som en hanzi taggning problem och använder en maskininlärning algoritm för att bestämma lämplig position för en hanzi. Det finns flera skäl till att vi kan förvänta oss att denna strategi ska fungera. För det första har kinesiska ord i allmänhet färre än fyra tecken. Till följd av detta är antalet positioner litet. För det andra, även om varje hanzi i princip kan förekomma i alla möjliga positioner, inte alla hanzi beter sig på detta sätt. Ett betydande antal hanzi distribueras på ett begränsat sätt. Till exempel, Den plural markör, nästan alltid förekommer i ordet-slutlig position. Slutligen, även om kinesiska ord inte kan listas uttömmande och nya ord kommer att förekomma i naturligt förekommande text, är detsamma inte sant för hanzi. Antalet hanzi förblir ganska konstant och vi förväntar oss i allmänhet inte att se nya hanzi. Vi representerar positioner av en hanzi med fyra olika taggar (tabell 1): LM för en hanzi som förekommer på vänster periferi av ett ord, följt av andra hanzi, MM för en hanzi som förekommer i mitten av ett ord, MR för en hanzi som förekommer på den högra periferin av ord, föregås av andra hanzi, och LR för hanzi som är ett ord av sig själv. Vi kallar det här för LMR-märkning. Med detta tillvägagångssätt, ord segmentering är en process där varje hanzi tilldelas en LMR-tagge och sekvenser av hanzi omvandlas sedan till sekvenser av ord baserat på LMR-taggar. Användningen av fyra taggar är språkligt intuitivt i att LM-taggar morfemer som är prefix eller stjälkar i avsaknad av prefix, MR-taggar morfemer som är suffix eller stjälkar i frånvaro av suffix, MM-taggar stjälkar med fästen och LR-taggar stjälkar utan fästen. Att representera distributionerna av hanzi med LMR-taggar gör det också enkelt att använda maskininlärningsalgoritmer som framgångsrikt har tillämpats på andra taggningsproblem, såsom POS-taggning och IOB-märkning som används vid textinskärning.
Det genomfördes först i kinesisk ordsegmentering genom REF med hjälp av de maximala entropimetoderna.
3,121,045
Chinese Word Segmentation As LMR Tagging
{'venue': 'SIGHAN Workshop On Chinese Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,052
I denna studie utforskar vi kapselnätverk med dynamisk routing för textklassificering. Vi föreslår tre strategier för att stabilisera den dynamiska routing processen för att lindra störningar i vissa bullerkapslar som kan innehålla "bakgrundsinformation" eller inte har framgångsrikt utbildats. En serie experiment utförs med kapselnätverk på sex textklassificeringsriktmärken. Capsule-nätverken uppnår konkurrenskraftiga resultat jämfört med de jämförda baslinjemetoderna på 4 av 6 datauppsättningar, vilket visar hur effektiva kapselnäten är för textklassificering. Vi visar dessutom att kapselnäten uppvisar betydande förbättringar när de överför enmärkning till flermärkt textklassificering över konkurrenterna. Såvitt vi vet är detta det första arbetet som kapselnätverk har undersökts empiriskt för textmodellering 1.
REF tillämpade hela kapselnätet på textklassificeringsuppgiften.
4,588,148
Investigating Capsule Networks with Dynamic Routing for Text Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,053
Vi beskriver en metod för oövervakad inlärning av en generisk, distribuerad mening kodare. Med hjälp av textkontinuiteten från böcker tränar vi en kodaremodell som försöker rekonstruera de omgivande meningarna i en kodad passage. Domar som delar semantiska och syntaktiska egenskaper kartläggs därför till liknande vektorrepresentationer. Därefter introducerar vi en enkel vokabulärexpansionsmetod för att koda ord som inte sågs som en del av träningen, så att vi kan utöka vårt vokabulär till en miljon ord. Efter att ha tränat vår modell extraherar och utvärderar vi våra vektorer med linjära modeller på 8 uppgifter: semantisk relativitet, parafrasdetektering, bild-sentens rankning, frågetypsklassificering och 4 benchmark-känslor och subjektivitetsdataset. Slutresultatet är en off-the-shelf kodare som kan producera mycket generiska meningsrepresentationer som är robusta och fungerar bra i praktiken. Vi kommer att göra vår kodare tillgänglig för allmänheten.
REF beskrev ett tillvägagångssätt för oövervakad inlärning av att rekonstruera de omgivande meningarna i en kodad passage med hjälp av en kodare-dekoder-modell.
9,126,867
Skip-Thought Vectors
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,054
Abstrakt. För att bevara batterieffekten i mycket täta sensornätverk kan vissa sensornoder sättas in i viloläge medan andra sensornoder förblir aktiva för avkännings- och kommunikationsuppgifter. I den här artikeln studerar vi problemet med nodsömnschemaläggning i samband med klustererade sensornätverk. Vi föreslår och analyserar tekniken Linjär distansbaserad schemaläggning (LDS) för sömn i varje kluster. LDS systemet väljer en sensor nod att sova med högre sannolikhet när det är längre bort från klusterhuvudet. Vi analyserar energiförbrukningen, sensortäckningsfastigheten och nätverkets livslängd för det föreslagna LDS-systemet. LDS-systemets resultat jämförs med det konventionella Randomized Scheduling-systemet (RS). Det visas att LDS-systemet ger större energibesparingar samtidigt som en liknande sensortäckning bibehålls som RS-systemet för sensorkluster. Därför resulterar LDS-systemet i en längre nätlivslängd än RS-systemet.
I REF har författarna upplyst systemet Linear Distance Based Scheduling (LDS) där sensornoder placeras i kluster och varje kluster har klusterhuvud.
661,428
Scheduling sleeping nodes in high density cluster-based sensor networks
{'venue': 'ACM/Kluwer Mobile Networks and Applications (MONET) Special Issue on ”Energy Constraints and Lifetime Performance in Wireless Sensor Networks', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,055
Trådlösa sensornätverk (WSN) växer fram som ett effektivt sätt att övervaka miljön. I detta dokument undersöks en strategi för energieffektiv övervakning i WSN:er som delar upp sensorerna i höljen, och sedan aktiverar höljena iterativt på ett round-robin-sätt. Detta tillvägagångssätt drar nytta av den överlappning som skapas när många sensorer övervakar ett enda område. Vårt arbete bygger på tidigare arbete i [13], där modellen först formuleras. Vi har designat tre approximationsalgoritmer för en variation av SET K-COVER-problemet, där målet är att dela upp sensorerna i täcken så att antalet täcken som inkluderar ett område, summerat över alla områden, maximeras. Den första algoritmen är randomiserad och partitionerar sensorerna, i förväntan, inom ett bråk 1 - 1 e (.63) av det optimala. Vi presenterar två andra deterministiska approximationsalgoritmer. Den ena är en distribuerad girig algoritm med en 12 approximation förhållande och den andra är en centraliserad girig algoritm med en 1-1 e approximation förhållande. Vi visar att det är NP-Complete att garantera bättre än 15 16 av den optimala täckningen, vilket indikerar att alla tre algoritmer presterar bra med avseende på bästa approximation algoritm möjligt i polynom tid, förutsatt att P = N P. Simuleringar visar att i praktiken deterministiska algoritmer utför långt över sina värsta fall gränser, konsekvent täcker mer än 72% av vad som täcks av en optimal lösning. Simuleringar visar också att ökningen av livslängden är proportionell mot mängden överlappningar mellan sensorerna. Algoritmerna är snabba, lätta att använda, och enligt simuleringar, avsevärt öka livslängden för sensornätverk. Särskilt den randomiserade algoritmen verkar ganska praktisk.
Abrams, Goel och Plotkin REF studerar problemet med att dela upp sensorerna i omslag så att antalet omslag som inkluderar ett område, summerat över alla k-områden, maximeras.
15,302,555
Set k-cover algorithms for energy efficient monitoring in wireless sensor networks
{'venue': "IPSN '04", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,056
Abstrakt. I detta papper undersöks användningen av Support Vector Machines (SVMs) för att lära sig textklassificerare från exempel. Den analyserar de särskilda egenskaperna hos lärande med textdata och identifierar varför SVMs är lämpliga för denna uppgift. Empiriska resultat stöder de teoretiska rönen. Små och medelstora företag uppnår betydande förbättringar jämfört med de metoder som för närvarande fungerar bäst och beter sig robust över en mängd olika inlärningsuppgifter. Dessutom är de helt automatiska, vilket eliminerar behovet av manuell parameterinställning. Med den snabba tillväxten av information online, text kategorisering har blivit en av de viktigaste teknikerna för att hantera och organisera textdata. Text kategorisering tekniker används för att klassificera nyheter, för att hitta intressant information om WWW, och för att vägleda en användares sökning genom hypertext. Eftersom det är svårt och tidskrävande att bygga textklassificerare för hand, är det fördelaktigt att lära sig klassificerare från exempel. I detta dokument kommer jag att undersöka och identifiera fördelarna med Support Vector Machines (SVMs) för textkategorisering. SVMs är en ny inlärningsmetod som introduceras av V. Vapnik et al. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. De är välgrundade i termer av beräkningsteori och mycket öppna för teoretisk förståelse och analys. Efter att ha granskat standardfunktionen vektor representation av text, kommer jag att identifiera de särskilda egenskaperna hos text i denna representation i avsnitt 4. Jag kommer att hävda att SVM är mycket väl lämpade för lärande i denna miljö. De empiriska resultaten i avsnitt 5 kommer att stödja detta påstående. Jämfört med de senaste metoderna uppvisar SVM betydande resultatvinster. I motsats till konventionella textklassificeringsmetoder kommer SVM dessutom att visa sig vara mycket robusta, vilket eliminerar behovet av dyr parameterinställning. Syftet med textkategoriseringen är att klassificera dokument i ett fast antal fördefinierade kategorier. Varje dokument kan vara i flera, exakt en, eller ingen kategori alls. Med hjälp av maskininlärning är målet att lära sig klassificerare
REF utforskade användningen av Support Vector Machines (SVM) för textkategorisering och fick bra prestanda på grund av deras förmåga att generalisera väl i högdimensionella funktionsutrymmen.
2,427,083
Text categorization with support vector machines: Learning with many relevant features
{'venue': 'ECML', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,057
Vi presenterar MCTest, en fritt tillgänglig samling berättelser och tillhörande frågor avsedda för forskning om maskinförståelse av text. Tidigare arbete med maskinförståelse (t.ex. semantisk modellering) har gjort stora framsteg, men fokuserar i första hand antingen på begränsade datauppsättningar eller på att lösa ett mer begränsat mål (t.ex. I kontrast, MCTest kräver maskiner för att svara på flera val av läsförståelse frågor om fiktiva berättelser, direkt ta itu med hög nivå målet med öppen-domän maskinförståelse. Läsförståelse kan testa avancerade förmågor som kausalt resonemang och förståelse av världen, men genom att vara flera val, fortfarande ge en tydlig metriska. Genom att vara påhittad kan svaret vanligtvis bara hittas i själva berättelsen. Berättelserna och frågorna är också noggrant begränsade till dem som ett litet barn skulle förstå, vilket minskar den världskunskap som krävs för uppgiften. Vi presenterar skalbara crowd-sourcing metoder som tillåter oss att billigt konstruera en datauppsättning på 500 våningar och 2000 frågor. Genom att visa arbetstagare (med grammatiktester) och berättelser (med gradering) har vi sett till att uppgifterna är av samma kvalitet som en annan uppsättning som vi redigerar manuellt, men till en tiondel av redigeringskostnaden. Genom att vara öppen-domän, men noga begränsad, hoppas vi att MCTest kommer att bidra till att uppmuntra forskning och ge ett tydligt mått för framsteg på maskinförståelse av text.
REF insamlad MCTest, en flera val QA datauppsättning avsedd för öppen-domänen läsförståelse.
2,100,831
MCTest: A Challenge Dataset for the Open-Domain Machine Comprehension of Text
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,058
Vi utforskar effektiv domänanpassning för uppgiften statistisk maskinöversättning baserad på att extrahera meningar från en stor generaldomän parallell corpus som är mest relevanta för måldomänen. Dessa meningar kan väljas med enkla korsentropiska metoder, av vilka vi presenterar tre. Eftersom dessa meningar inte själva är identiska med de in-domändata, kallar vi dem pseudo in-domän subcorpora. Dessa subcorpora -1% storleken på originalet -kan sedan användas för att träna små domänanpassade Statistical Machine Translation (SMT) system som överträffar system utbildade på hela corpus. Prestanda förbättras ytterligare när vi använder dessa domänanpassade modeller i kombination med en sann in-domänmodell. Resultaten visar att fler träningsdata inte alltid är bättre, och att bästa resultat uppnås genom korrekt domänrelevant dataval, samt att kombinera in- och generaldomänsystem under avkodning.
Cross-entropy baserad metod används för att välja ut-domän meningar för utbildning SMT REF.
10,766,958
Domain Adaptation via Pseudo In-Domain Data Selection
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,059
Abstract-Automatiserad datorklassificering (ACC) tekniker behövs för att underlätta läkarens diagnos av komplexa sjukdomar hos enskilda patienter. Vi ger ett exempel på ACC med hjälp av beräkningstekniker inom ramen för tvärsnittsanalys av magnetiska resonansbilder (MRI) vid neurodegenerativa sjukdomar, nämligen Alzheimers demens (AD). I detta dokument bedöms exaktheten hos vår ACC-metod när den presenteras med verkliga liv, ofullständiga data, dvs. kohorter av MRT med varierande förvärvsparametrar och bildkvalitet. Den jämförande metoden använder Jacobian determinants härledd från täta deformationsfält och skalad grå nivå intensitet från en utvald volym av intresse centrerad på medial temporal loben. ACC-prestandan bedöms i en serie permission-one-out experiment som syftar till att separera 75 troliga AD och 75 åldersmatchade normala kontroller. Den resulterande noggrannheten är 92% med hjälp av en stöd vektor maskin klassificerare baserat på minst kvadratoptimering. Slutligen visas det i tillägget att bestämningsfaktorer och avskalad grånivåintensitet är märkbart mer robusta än varierande parametrar i valideringsstudier med simulerade data, jämfört med råstyrka eller grå/vit substansvolymer. Förmågan av tvärsnitts MRI vid upptäckt trolig ANNONS med hög noggrannhet kan ha djupgående implikationer i hanteringen av misstänkta ANNONS kandidater.
Duchesne m.fl. REF presenterade sitt arbete med automatiserad datorklassificering vid Alzheimers demens med hjälp av tvärsnittsanalys av magnetiska resonansbilder (MRI).
7,932,460
MRI-Based Automated Computer Classification of Probable AD Versus Normal Controls
{'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
82,060
Vi tar itu med problemet med att klumpa ihop finesserna i en användarsökning. De kluster som beräknas av vår föreslagna algoritm kan användas för att förbättra urvalet och placeringen av de frågeförslag som föreslås av en sökmotor, och kan också användas för att sammanfatta de olika aspekterna av information som är relevant för den ursprungliga användarfrågan. Våra algoritmkluster förfinas baserat på deras sannolika underliggande användar intentioner genom att kombinera dokumentklick och session cooccurrence information. I sin kärna, vår algoritm fungerar genom att utföra flera slumpmässiga promenader på en Markov graf som approximerar användarens sökbeteende. En användarstudie som utförs på topp sökmotorfrågor visar att våra kluster är betygsatta bättre än motsvarande kluster som beräknas med hjälp av metoder som endast använder dokumentklick eller endast sessioner co-occurrence information.
REF klustrad frågeförfining genom att utföra flera slumpmässiga promenader på en Markov graf som approximerar användarens sökbeteende.
549,288
Clustering query refinements by user intent
{'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,061
Vi beskriver ett iterativt förfarande för att optimera politiken, med garanterad monoton förbättring. Genom att göra flera approximationer till det teoretiskt motiverade förfarandet utvecklar vi en praktisk algoritm, som kallas Trust Region Policy Optimization (TRPO). Denna algoritm liknar naturliga policy gradient metoder och är effektiv för att optimera stora icke-linjära politik såsom neurala nätverk. Våra experiment visar dess robusta prestanda på en mängd olika uppgifter: att lära sig simulerad robot simning, hoppning och promenader gångspel, och spela Atari spel med hjälp av bilder på skärmen som ingång. Trots dess approximationer som avviker från teorin, TRPO tenderar att ge monoton förbättring, med liten inställning av hyperparametrar.
Schulman m.fl. REF föreslår Trust Region Policy Optimization (TRPO), som är effektiv för att optimera stora icke-linjära strategier och visar robust prestanda på ett brett utbud av robotiska uppgifter.
16,046,818
Trust Region Policy Optimization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,062
Sekvensmärkning arkitekturer använder ord inbäddningar för att fånga likhet, men lider vid hantering tidigare osynliga eller sällsynta ord. Vi undersöker tecken-nivå förlängningar till sådana modeller och föreslår en ny arkitektur för att kombinera alternativa ord representationer. Genom att använda en uppmärksamhetsmekanism kan modellen dynamiskt bestämma hur mycket information som ska användas från en ord- eller teckennivåkomponent. Vi utvärderade olika arkitekturer på en rad sekvensmärkningsdatauppsättningar, och utökningar på teckennivå upptäcktes för att förbättra prestandan på varje riktmärke. Dessutom gav den föreslagna uppmärksamhetsbaserade arkitekturen de bästa resultaten även med ett mindre antal utbildningsbara parametrar.
Dessutom införs uppmärksamhetsmekanismen i NER för att dynamiskt bestämma hur mycket information som ska användas från ett ord eller teckennivåkomponent REF.
5,075,704
Attending to Characters in Neural Sequence Labeling Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,063
Abstrakt. Vi tillhandahåller approximationsalgoritmer för vissa kapacierade fordon routing och leveransproblem. Dessa problem kan alla ses som exempel på följande k-Leverans TSP: givet n-källpunkter och n-sänkpunkter i ett metriska utrymme, med exakt ett objekt vid varje källa, nda en minsta längdtur med ett fordon med nitkapacitet k för att plocka upp och leverera exakt ett objekt till varje diskbänk. Den enda kända approximationsalgoritmen för denna problemfamilj är 2,5-approximationsalgoritmen för Anily och Hassin 2] för specialfallet k = 1. För detta fall använder vi matris skärningspunkt för att få en 2- approximation algoritm. Baserat på denna algoritm och några ytterligare lägre bundet argument, vi utforma en 9,5- approximation för k-Delivery TSP med godtycklig nite k. Vi presenterar också en 2- approximation algoritm för fallet k = 1. Vi initierar sedan studien av dynamiska varianter av k-Delivery TSP som modellerar problem i industriell robotik och andra tillämpningar. Speci caley, vi anser att situationen där en robot arm (med nite eller nite kapacitet) måste samla n punkt-objekt som rör sig i Euclidean planet, och leverera dem till ursprunget. Punktobjekten rör sig i planet med kända, identiska hastigheter { de kan till exempel vara på ett rörligt transportband. Vi härleder flera användbara strukturella egenskaper som leder till konstant-faktor approximationer för problem av denna typ som är relevanta för robotik applikationen. Längs vägen visar vi att Maximum Latency TSP är implicit i de dynamiska problemen, och att den naturliga \furthest granne" heuristic producerar en bra approximation för flera begrepp latency.
En annan variant av den generaliserade TSP är Pickup & Delivery TSP ([17], REF ), där gods och passagerare plockas upp och leds till exakta destinationer.
10,260,140
Approximating Capacitated Routing And Delivery Problems
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,064
Vi tar itu med problemet med storskalig visuell platsigenkänning, där uppgiften är att snabbt och korrekt känna igen platsen för en given frågebild. Vi presenterar följande tre huvudsakliga bidrag. Först utvecklar vi en konvolutionell neurala nätverk (CNN) arkitektur som kan tränas på ett end-to-end sätt direkt för platsen erkännande uppgift. Huvudkomponenten i denna arkitektur, NetVLAD, är ett nytt generaliserat VLAD-lager, inspirerat av "Vector of Locally Aggregated Descriptors" bildrepresentation som vanligen används i bildhämtning. Lagret kan enkelt anslutas till alla CNN-arkitekturer och är kompatibelt med träning via backpropagation. För det andra utvecklar vi ett utbildningsförfarande, baserat på en ny svagt övervakad rankning förlust, för att lära sig parametrar för arkitekturen på ett end-to-end sätt från bilder som skildrar samma platser över tid laddas ner från Google Street View Time Machine. Slutligen visar vi att den föreslagna arkitekturen avsevärt överträffar icke-lärande bildrepresentationer och off-the-shelf CNN-deskriptorer på två utmanande plats igenkänningsriktmärken, och förbättrar över nuvarande toppmoderna kompakta bildrepresentationer på standardiserade riktmärken för hämtning av bilder.
NetVlad REF är en tränad generalisering av VLAD för att känna igen geolokalisering av bilder.
44,604,205
NetVLAD: CNN Architecture for Weakly Supervised Place Recognition
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,065
För en given graf med viktade hörn, målet med den minsta vikt dominerande set problem är att beräkna en vertex delmängd av minsta vikt sådan att varje vertex av grafen ingår i delmängd eller har en granne i delmängd. En enhet diskkurva är en graf där varje vertex motsvarar en enhet disk i planet och två hörn är intilliggande om och endast om deras diskar har en icke-tom skärningspunkt. Vi presenterar den första approximationsalgoritmen med konstant faktor för minimivikts dominerande set-problem i enhetsdiskgrafer, ett problem som motiveras av tillämpningar i trådlösa ad-hoc-nätverk. Algoritmen erhålls i två steg: För det första reduceras problemet till problemet med att täcka en uppsättning punkter som ligger i en liten kvadrat med hjälp av en minimivikt uppsättning enhet diskar. Därefter erhålls en approximationsalgoritm med konstant faktor för det senare problemet med hjälp av uppräknings- och dynamiska programmeringstekniker som utnyttjar enhetsdiskarnas geometri. Dessutom visar vi hur man får en approximationsalgoritm med konstant faktor för minimalviktsansluten dominerande set-problem i enhetsdiskgrafer. Våra tekniker ger också en approximationsalgoritm för konstant faktor för det viktade diskomslagsproblemet (som täcker en uppsättning punkter i planet med enhetsdiskar av minsta totalvikt) och en 3-approximationsalgoritm för det viktade spediteringsproblemet (som täcker en uppsättning punkter i planet med viktade enhetsdiskar vars centra alla ingår i en given enhet disk).
Den första konstanta approximationsalgoritmen för det viktade (1, 1)-CDS-problemet i enhetsdiskgrafer berodde på Ambühl et al. Hoppa över det.
14,636,043
Constant-factor approximation for minimum-weight (connected) dominating sets in unit disk graphs
{'venue': 'In: Proc. of the 9 th Int. Workshop on Approximation Algorithms for Combinatorial Optimization Problems (APPROX). (2006', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,066
Markörens förmåga att förutsäga risken för en sjukdom beror på sjukdomens prevalens i målpopulationen och dess riktighet i klassificeringen, dvs. dess förmåga att diskriminera sjuka personer från icke-sjuka personer. Den senare anses ofta vara en inneboende egenskap hos markören; den är oberoende av sjukdomsprevalensen och därmed mer sannolik för alla populationer än riskförutsägelser. I detta dokument är vi intresserade av att utvärdera den populationsspecifika prestandan hos en riskprediktionsmarkör i termer av det positiva prediktiva värdet PPV och det negativa prediktiva värdet NPV vid givna tröskelvärden, när prover finns tillgängliga både från målpopulationen och från en annan population. En standardstrategi är att uppskatta PPV och NPV med hjälp av prover från målpopulationen endast. När markörens noggrannhet av klassificeringen som kännetecknas av en specifik punkt på mottagarens driftsegenskaper kurva är likartad mellan populationer, lånar information över populationer möjliggör ökad effektivitet i uppskattningen av PPV och NPV. Vi utvecklar estimatorer som optimalt kombinerar information mellan populationer. Vi tillämpar denna metod för en tvärsnittsstudie där vi utvärderar PCA3 som en riskförutsägelsemarkör för prostatacancer bland försökspersoner med eller utan en tidigare negativ biopsi.
I stället för att dela information mellan undergrupper genom att integrera extern information i variabelt urval föreslår Ref ett vägt tillvägagångssätt för att kombinera positivt prediktivt värde (PPV) och negativt prediktivt värde (NPV) mellan populationer när antagandet om gemensam klassificering är motiverat.
39,365,792
Borrowing information across populations in estimating positive and negative predictive values
{'venue': 'Journal of the Royal Statistical Society. Series C, Applied statistics', 'journal': 'Journal of the Royal Statistical Society. Series C, Applied statistics', 'mag_field_of_study': ['Mathematics', 'Medicine']}
82,067
Med namngiven Entity Disambiguation (NED) avses uppgiften att lösa flera namngivna enheter som i ett dokument nämner deras korrekta referenser i en kunskapsbas (KB) (t.ex. Wikipedia). I detta dokument föreslår vi en ny inbäddningsmetod som är särskilt utformad för NED. Den föreslagna metoden kartlägger tillsammans ord och enheter i samma kontinuerliga vektorutrymme. Vi utökar skip-gram-modellen med hjälp av två modeller. KB-grafmodellen lär sig hur relaterade enheterna är med hjälp av KB:s länkstruktur, medan modellen med ankarkontext syftar till att anpassa vektorer så att liknande ord och enheter förekommer nära varandra i vektorutrymmet genom att använda KB-ankare och deras sammanhangsord. Genom att kombinera sammanhang baserade på den föreslagna inbäddningen med standard-NED-funktioner uppnådde vi en toppmodern noggrannhet på 93,1 % på standarddatauppsättningen för CONLL och 85,2 % på datauppsättningen för TAC 2010.
REF föreslog en metod för att gemensamt bädda in ord och enheter genom att gemensamt optimera modeller för beräkning av ord, enhetsord och enhetsenhet.
5,267,356
Joint Learning of the Embedding of Words and Entities for Named Entity Disambiguation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,068
Abstract-This paper presenterar en klass av routing protokoll som kallas road-based using vehicular traffic (RBVT) routing, som överträffar befintliga routing protokoll i stadsbaserade fordon ad hoc nätverk (VANETs). RBVT-protokoll utnyttjar trafikinformation i realtid för att skapa vägbaserade vägar som består av successioner av vägkorsningar som med stor sannolikhet har nätverksanslutningar mellan dem. Geografisk vidarebefordran används för att överföra paket mellan korsningar på banan, vilket minskar banans känslighet för enskilda nodrörelser. För täta nätverk med högt innehåll optimerar vi vidarebefordringen med hjälp av ett distribuerat mottagarbaserat val av nästa humle baserat på en multikriterionsprioriteringsfunktion som tar hänsyn till icke-uniform radioutbredning. Vi designade och implementerade ett reaktivt protokoll RBVT-R och ett proaktivt protokoll RBVT-P och jämförde dem med protokoll som är representativa för mobila ad hoc-nätverk och VANET. Simuleringsresultat i stadsmiljöer visar att RBVT-R presterar bäst i termer av genomsnittlig leveranshastighet, med upp till 40 % ökning jämfört med vissa befintliga protokoll. I termer av genomsnittlig fördröjning, RBVT-P presterar bäst, med så mycket som en 85% minskning jämfört med de andra protokollen. Index Terms-Receiver-baserade nästa-hop val, väg-baserad routing, fordonstrafik-medveten routing.
Nzouonta et al. I REF föreslogs det vägbaserade fordonstrafikprotokollet.
3,042,458
VANET Routing on City Roads Using Real-Time Vehicular Traffic Information
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
82,069
Vi beskriver en uppsättning högpresterande system på SemEval 2015 English Semantic Textual Likhet (STS) uppgift. Med tanke på två engelska meningar, varje system ger graden av deras semantiska likhet. Vårt oövervakade system, som är baserat på ordanpassningar över de två indatameningarna, rankas 5:e bland 73 inskickade system körs med en genomsnittlig korrelation på 79,19% med mänskliga annoteringar. Vi lämnade också in två körningar av ett övervakat system som använder ordanpassningar och likheter mellan sammansättnings mening vektorer som dess egenskaper. Vår bästa övervakade körning rankad 1:a med en genomsnittlig korrelation på 80.15%.
Det REF uppnådde återigen det bästa resultatet som visas på STS 2015 oss- word anpassning och likheter mellan kompositions mening vektorer som dess egenskaper.
7,450,224
DLS$@$CU: Sentence Similarity from Word Alignment and Semantic Vector Composition
{'venue': 'SemEval@NAACL-HLT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,070
Abstrakt. Mobila applikationsmarknader som Android Marketplace ger en centraliserad showcase av program som slutanvändare kan köpa eller ladda ner gratis på sina mobiltelefoner. Trots tillströmningen av ansökningar på marknaderna granskas ansökningarna snabbt av marknadsansvariga på grund av det stora antalet inlagor. Användarbevakning och rapportering är den primära metoden för att upptäcka felbehandling av ansökningar. Denna reaktiva inställning till programsäkerhet, särskilt när program kan innehålla buggar, malware, eller piratkopierad (oäkta) kod, sätter för mycket ansvar på slutanvändarna. Mot bakgrund av detta föreslår vi Juxtapp, en skalbar infrastruktur för kodlikviditetsanalys bland Android-applikationer. Juxtapp ger en viktig lösning på ett antal problem i Android-säkerhet, inklusive att bestämma om appar innehåller kopior av buggy kod, har betydande kod återanvändning som indikerar piratkopiering, eller är fall av kända malware. Vi utvärderar vårt system med mer än 58.000 Android-applikationer och visar att vårt system skalar väl och är effektivt. Våra resultat visar att Juxtapp kan upptäcka: 1) 463 program med bekräftad felkod återanvändning som kan leda till allvarliga sårbarheter i verkliga appar, 2) 34 fall av kända malware och varianter (13 olika varianter av GoldDream malware), och 3) piratkopierade varianter av ett populärt betalt spel.
Juxtapp REF känner igen om program innehåller kända, defekt kod, utställ kod återanvändning som indikerar piratkopiering, eller är (ompaketerade) varianter av kända skadliga appar.
10,766,783
Juxtapp: A Scalable System for Detecting Code Reuse Among Android Applications
{'venue': 'In: Proceedings of the 9th Conference on Detection of Intrusions and Malware & Vulnerability Assessment', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,071
Vi tar upp problemet med automatisk bild annotation i stora ordförråd dataset. I sådana datauppsättningar finns det tre praktiska frågor: a) Ofullständig märkning: Träningsproven är inte uttömmande märkta med alla relevanta etiketter från ordförråd. Detta beror på att när man bygger en datauppsättning, finner människoantecknare några etiketter som "uppenbara" och saknar dem i marksanningen. T.ex. kan en bild märkt med "bil" inte märkas med "fordon". (b) Etikett-ambiguitet: Det finns vissa etiketter som förmedlar samma semantiska betydelse och därmed kan användas utbytbart, på grund av vilka vanligtvis endast en av dem tilldelas av notator. T.ex., en bild märkt med "blommor" får inte märkas med "blooms", eftersom båda förmedlar samma betydelse. (c) Strukturell-överlappning: Det finns vissa märken som, trots att de är olika, delar strukturella egenskaper. T.ex., även om "tiger" och "lion" är två olika etiketter, strukturellt är de mycket lika. De flesta av de tidigare verken inom detta område har fokuserat på närmaste grannbaserade modeller. I ett nyligen utfört arbete [4] försöker man också att integrera märkningsinformationen i närmaste granne. I detta arbete visar vi först att även de konventionella SVM överträffar flera referensmodeller. Sedan föreslår vi en ny förlustfunktion baserad på gångjärnsförlusten för att göra SVM tolerant mot de tre frågor som diskuteras ovan. För detta introducerar vi en toleransparameter "t" som justerar både marginalen och lutningsuppdateringsregeln för varje prov separat. Vi kallar denna modell för Suppor Vector Machine med variabel tolerans (eller SVM-VT). Specifikt formaliserar vi SVM-VT-modellen som att lösa följande optimeringsproblem: där den ytterligare parametern t j och [0, 1] styr toleransen mot de fel som görs i klassificeringen av prov x j. Hyperplanet w lärs så att det är strängare mot korrekt klassificering av prover med högt värde av t j och varje sådant fel leder till ett stort skifte i hyperplanet. Vi föreslår ett heuristiskt tillvägagångssätt för att bestämma t-värdet för varje prov som ges en etikett. För en etikett l, låt S + och S + vara uppsättningarna av dess positiva respektive negativa exempel respektive. Vi anser tre faktorer för att bestämma den semantiska relationen mellan varje prov x j på S + med den etiketten: (a) Omvänd närmaste granne baserat poäng: För ett fast värde av K (= 5), låt p k vara antalet prover i S + som har x j som sin k th närmaste granne. Sedan definierar vi (b) Visuell likhet baserad poäng: Vi beräknar den visuella likheten poäng sim(·) (skalas in i intervallet [0, 1]) av x j med dess närmaste granne x * i på S + med hjälp av JEC [3] metod och definiera (c) Etikett cooccurrence baserat poäng: För en etikett l, låt y 0, 1} m vara sådan att dess i th posten är 1 om i th träningsbilden är märkt med l, och 0 annars. Vi beräknar kooccurence score co_occur(l i, l j ) mellan två etiketter l i och l j med cosinus likhet mellan deras motsvarande vektorer y i och y j. Låt x j märkas med etiketter L j, sedan definierar vi Från dessa definierar vi toleransparameter för prov x j given etikett l som vi beräknar t j endast för prover inS +, och ta t j = 1 för alla positiva prover förutsatt att de är korrekt kommenterade. Figur 1: Till exempel etiketter (i blått) från de tre dataseten, de översta "negativa" proven som har minst t-score med motsvarande jordtruthetiketter (mindre t-score innebär högre semantisk relevans). Datauppsättning → Corel-5k ESP Game IAPRTC-12 Metod ↓ P/R/F1/N+ P/R/F1/N+ P/R/F1/N+ MBRM[1] 0
Nyligen har en SVM-baserad modell REF som föreslagits av Verma och Jawahar modifierat SVM gångjärnsförlustfunktionen för att hantera förvirrande etiketter.
11,747,523
Exploring SVM for Image Annotation in Presence of Confusing Labels
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,072
Abstract-I den nuvarande studien av kognitiva relänätverk, de flesta relaterade verk fokuserar på effekten av störningar från sekundära användare (SUs) till primära mottagare (PRs), samtidigt som man försummar länkar från primära sändare (PTs) till SUs. I detta dokument beaktas interferensen både från SU:er till PR:er och från PT:er till SU:er i analysen av kognitiva tvåvägsrelänätverk med opportunistiskt reläval. Det exakta slutet formuttrycket för avbrottssannolikheten för det sekundära systemet härleds över Rayleigh blekningskanaler, vilket verifieras genom olika Monte Carlo-simuleringar. Samtidigt härleds också ett asymptotiskt uttryck och mångfaldsordning för att avslöja ytterligare insikter om effekten av den ömsesidiga störningen mellan de primära och sekundära systemen på mångfalden. På grundval av analysen studeras framför allt effekterna av PT:s, PR:s och sekundära reläers positioner på sekundärsystemets avbrottsprestanda. Våra resultat visar att planering av nätverksplacering är absolut nödvändigt för att uppnå en bättre avbrottsprestanda. Det visas att reläernas position har en stark inverkan på prestandan, särskilt när antalet reläer är stort. När den relativa positionen mellan det primära systemet och sekundära system är fast, har dock PT:s positioner en mycket liten inverkan på avbrottsprestandan, vilket kan förbises. Vid praktisk användning, när kognitivt tvåvägsrelä utförs med opportunistiskt reläval, bör därför lämplig planering av nätverksplacering noggrant beaktas. Index Terms-Cognitive tvåvägs relänätverk, opportunistiska reläval, fysisk-lager nätverk kodning (PNC), system avbrott prestanda.
I REF, den exakta avbrottsannolikheten härleddes under en kognitiv tvåvägs relä nätverk inställning.
22,400,961
Exact Outage Analysis in Cognitive Two-Way Relay Networks With Opportunistic Relay Selection Under Primary User's Interference
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
82,073
I den här artikeln överväger vi problemet med att utforska en okänd miljö med ett team av robotar. Som i en-robot prospektering är målet att minimera den totala prospekteringstiden. Det viktigaste problemet som ska lösas i samband med flera robotar är att välja lämpliga målpunkter för de enskilda robotarna så att de samtidigt utforskar olika regioner i miljön. Vi presenterar en strategi för samordning av flera robotar, som samtidigt tar hänsyn till kostnaden för att nå en målpunkt och dess nytta. När en målpunkt tilldelas en specifik robot minskar nyttan av det outforskade område som är synligt från denna målposition. På så sätt tilldelas de enskilda robotarna olika målplatser. Vi beskriver vidare hur vår algoritm kan utvidgas till situationer där robotarnas kommunikationsområde är begränsat. Vår teknik har implementerats och testats i stor utsträckning i verkliga experiment och simuleringskörningar. Resultaten visar att vår teknik effektivt distribuerar robotarna över miljön och gör det möjligt för dem att snabbt utföra sitt uppdrag.
I REF beaktas de destinationer som valts av andra robotar vid beräkningen av bruksfunktionen.
6,929,713
Coordinated multi-robot exploration
{'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Engineering', 'Computer Science']}
82,074
Sociala märkningssystem har blivit allt populärare när det gäller att dela och organisera webbresurser. Tag rekommendation är ett vanligt inslag i sociala märkningssystem. Social taggning av naturen är en inkrementell process, vilket innebär att när en användare har sparat en webbsida med taggar, taggningssystemet kan ge mer exakta förutsägelser för användaren, baserat på användarens inkrementella beteende. Befintliga metoder för att förutsäga taggar tar dock inte hänsyn till denna viktiga faktor, där deras utbildnings- och testdata antingen delas upp genom en fast tidsstämpel eller slumpmässigt provtas från en större corpus. I våra tidsexperiment utför vi en tidskänslig provtagning på en befintlig offentlig datauppsättning, vilket resulterar i ett nytt scenario som ligger mycket närmare "realvärlden". I den här artikeln tar vi upp problemet med taggförutsägelse genom att föreslå en probabilistisk modell för personlig taggförutsägelse. Modellen är en Bayesiansk strategi och integrerar tre faktorer, en egocentrisk effekt, miljöpåverkan och innehåll på webbsidan. Två metoder – både intuitiv beräkning och inlärningsoptimering – tillhandahålls för parameteruppskattning. Ren grafbaserade metoder som kan ha betydande begränsningar (såsom varje användare, varje objekt och varje tagg måste förekomma i åtminstone p-inlägg) kan inte göra en förutsägelse i de flesta "verkliga" fall medan vår modell förbättrar F-måttet med över 30% jämfört med en ledande algoritm på en offentligt tillgänglig real-world dataset.
Ett nytt arbete REF föreslår en probabilistisk modell för personlig tagg förutsägelse och använder Naive Bayes klassificerare.
13,095,025
A probabilistic model for personalized tag prediction
{'venue': "KDD '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,075
Detta papper beskriver en verktygslåda för halvautomatisk mätning och modellering av statiska och dynamiska egenskaper hos applikationer på ett arkitekturneutralt sätt. För förutsägbara tillämpningar har modeller av dynamiska egenskaper en konvex och differentierad profil. Vårt verktygskit fungerar på applikationsbinärer och lyckas med att modellera viktiga applikationsegenskaper som avgör programmets prestanda. Vi använder dessa karakteriseringar för att utforska samspelet mellan ett program och en målarkitektur. Vi använder vårt verktygskit till SPARC-binärer för att utveckla arkitekturneutrala modeller av beräknings- och minnesåtkomstmönster för ASCI Sweep3D- och NAS SP-, BT- och LU-riktmärken. Från våra modeller förutsäger vi att L1, L2 och TLB cache miss räknas samt den totala genomförandetiden för dessa applikationer på ett Origin 2000 system. Vi utvärderar våra förutsägelser genom att jämföra dem med mätningar som samlas in med hjälp av maskinvaruprestandaräknare.
Marin och Mellor-Crummey REF föreslog ett modellverktyg för halvautomatisk mätning och modellering av statiska och dynamiska egenskaper hos applikationer på ett arkitekturneutralt sätt.
18,317,972
Cross-architecture performance predictions for scientific applications using parameterized models
{'venue': "SIGMETRICS '04/Performance '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,076
Även om användare av online-kommunikationsverktyg sällan kategoriserar sina kontakter i grupper som "familj", "medarbetare", eller "jobbkompisar", de ändå implicit kluster kontakter, genom sina interaktioner med dem, bildar implicita grupper. I detta dokument beskriver vi den implicita sociala grafen som bildas av användarnas interaktioner med kontakter och grupper av kontakter, och som skiljer sig från explicita sociala grafer där användare uttryckligen lägger till andra individer som sina "vänner". Vi introducerar ett interaktionsbaserat mått för att uppskatta en användares affinitet till hans kontakter och grupper. Vi beskriver sedan en ny vän förslag algoritm som använder en användares implicita sociala graf för att generera en vän grupp, med tanke på en liten uppsättning kontakter som användaren redan har märkt som vänner. Vi visar experimentella resultat som visar betydelsen av både implicita grupprelationer och interaktionsbaserad affinitetsrankning i att föreslå vänner. Slutligen diskuterar vi två applikationer av Friend Föreslå algoritm som har släppts som Gmail Labs funktioner.
REF använde användarens implicita interaktion med (grupp av) kontakter för att uppskatta användarens affinitet.
1,858,995
Suggesting friends using the implicit social graph
{'venue': "KDD '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,077
Ordet sense disambiguation är nödvändigt i översättning eftersom olika ord sinnen ofta har olika översättningar. Neural maskinöversättning modeller lära sig olika sinnen av ord som en del av en endto-end översättning uppgift, och deras förmåga att utföra ord sense disambiguation har hittills inte kvantifierats. Vi utnyttjar det faktum att neurala översättningsmodeller kan poäng godtyckliga översättningar för att utforma en ny cross-lingual word sense disambiguation uppgift som är skräddarsydd för att utvärdera neurala maskinöversättning modeller. Vi presenterar en testuppsättning på 7 200 lexiska tvetydigheter för tyska→engelska, och 6 700 för tyska→franska, och rapporterar utgångsresultat. Med 70% av lexiska ambiguities korrekt disambiguated, finner vi att ordet sense disambiguation förblir ett utmanande problem för neural maskin översättning, särskilt för sällsynta ord sinnen. För att förbättra word sense disambiguation i neural maskinöversättning, experimenterar vi med två metoder för att integrera känsla inbäddningar. I ett första tillvägagångssätt vi passerar känsla inbäddningar som ytterligare input till neurala maskinen översättningssystemet. För det andra experimentet extraherar vi lexiska kedjor baserade på sinnesinbäddningar från dokumentet och integrerar denna information i NMT-modellen. Medan en baslinje NMT-system disambiguerar frekventa ord sinnen ganska tillförlitligt, annotationen med både sense labels och lexical kedjor förbättrar de neurala modellernas prestanda på sällsynta ord sinnen.
REF pass sense inbäddningar som ytterligare indata till NMT, extrahera lexical kedjor baserade på känsla inbäddningar från dokumentet och integrera det i NMT-modellen.
529,114
Improving Word Sense Disambiguation in Neural Machine Translation with Sense Embeddings
{'venue': 'WMT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,078
De sociala mediernas ökande popularitet har lockat ett stort antal människor att dagligen delta i många aktiviteter. Detta resulterar i enorma mängder rika användargenererade data. Dessa data ger forskare och tjänsteleverantörer möjlighet att studera och bättre förstå användarnas beteende och ytterligare förbättra kvaliteten på de personliga tjänsterna. Publicering av användargenererade data riskerar att utsätta enskilda personers integritet. Användarnas integritet i sociala medier är en växande uppgift och har fått allt större uppmärksamhet under de senaste åren. Dessa verk studerar integritetsskyddsfrågor i sociala medier från de två olika synpunkterna: identifiering av sårbarheter och begränsning av integritetsskyddsrisker. Den senaste forskningen har visat sårbarheten hos användargenererade data mot de två allmänna typerna av attacker, identitetsutlämnande och utlämnande av attribut. Dessa integritetsskyddsfrågor ger utgivare av sociala medier i uppdrag att skydda användarnas integritet genom att sanitera användargenererade data innan de publicerar dem. Följaktligen har olika skyddsmetoder föreslagits för att anonymisera användargenererade data från sociala medier. Det finns en omfattande litteratur om användarnas integritet i sociala medier ur många perspektiv. I den här undersökningen går vi igenom de viktigaste resultaten av användarnas integritet i sociala medier. I synnerhet granskar och jämför vi toppmoderna algoritmer när det gäller integritetsläckageattacker och anonymiseringsalgoritmer. Vi överblickar integritetsrisker från olika aspekter av sociala medier och kategorisera relevanta verk i fem grupper 1) grafdata anonymisering och avanonymisering, 2) författare identifiering, 3) profil attribut avslöjande, 4) användarens plats och integritet, och 5) rekommenderar system och integritetsfrågor. Vi diskuterar även öppna problem och framtida forskningsanvisningar för användarintegritetsfrågor i sociala medier.
Identifiering och begränsning av användarnas integritetsfrågor har undersökts från olika aspekter på webben och sociala medier (för en omfattande undersökning se REF ).
51,937,101
Privacy in Social Media: Identification, Mitigation and Applications
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,079
Vi tar upp problemet med att analysera flera relaterade åsikter i en text. I en restauranggranskning kan sådana åsikter till exempel inbegripa mat, atmosfär och service. Vi formulerar denna uppgift som en multipel aspekt ranking problem, där målet är att producera en uppsättning numeriska poäng, en för varje aspekt. Vi presenterar en algoritm som tillsammans lär sig rankingmodeller för enskilda aspekter genom att modellera beroendena mellan tilldelade led. Denna algoritm vägleder förutsägelsen av enskilda rankare genom att analysera meta-relationen mellan åsikter, såsom enighet och kontrast. Vi visar att vår avtalsbaserade gemensamma modell är mer uttrycksfull än individuella rankingmodeller. Våra empiriska resultat bekräftar ytterligare modellens styrka: algoritmen ger betydande förbättringar jämfört med både individuella rankare och en toppmodern gemensam rankningsmodell.
I texten behandlades problemet med att identifiera kategorier för flera relaterade aspekter.
2,279,432
Multiple Aspect Ranking Using the Good Grief Algorithm
{'venue': 'Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Proceedings of the Main Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,080
Abstract-I detta papper beskriver vi PEGASUS, en öppen källkod Peta Graph Mining bibliotek som utför typiska graf gruvdrift uppgifter som att beräkna diametern på grafen, beräkna radien för varje nod och hitta de anslutna komponenterna. När grafernas storlek når flera Giga-, Tera- eller Peta-bytes, växer också behovet av ett sådant bibliotek. Såvitt vi vet är PEGASUS det första biblioteket, implementerat på toppen av HADOOP-plattformen, den öppna källkodsversionen av MAPREDUCE. Många grafbrytningar (PageRank, spektralkluster, uppskattning av diameter, anslutna komponenter etc.) är i huvudsak en upprepad matris-vektor multiplikation. I denna uppsats beskriver vi en mycket viktig primitiv för PEGASUS, kallad GIM-V (Generalized Iterated Matrix-Vector multiplikation). GIM-V är mycket optimerad, vilket ger (a) god uppskalning på antalet tillgängliga maskiner (b) linjär körtid på antalet kanter, och (c) mer än 5 gånger snabbare prestanda över den icke-optimerade versionen av GIM-V. Våra experiment kördes på M45, en av de 50 bästa superdatorerna i världen. Vi rapporterar våra resultat på flera verkliga grafer, inklusive en av de största offentligt tillgängliga Web Graphs, tack vare Yahoo!, med 6,7 miljarder kanter.
Till exempel, ett PeGaSus bibliotek (Peta-Scale Graph Mining System) som beskrivs i REF, bygger på att använda Hadoop plattform för att utföra flera graf gruvdrift uppgifter som PageRank beräkningar, spektral klustring, uppskattning av diameter, och bestämma con-nected komponenter.
6,598,415
PEGASUS: A Peta-Scale Graph Mining System Implementation and Observations
{'venue': '2009 Ninth IEEE International Conference on Data Mining', 'journal': '2009 Ninth IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
82,081
Abstract-Power bevarande är en allmän oro för mobila datorer och kommunikation. I detta dokument undersöker vi prestandan hos den nuvarande 802.11 kraftsparmekanismen (oplanerad PSM) och visar att bakgrundstrafik kan ha en betydande inverkan på elförbrukningen i mobila stationer. För att förbättra effektiviteten föreslås ett schemalagt PSM-protokoll baserat på tidsskärning i detta dokument. Protokollet antar mekanismen för tidsdelning, schemalägger åtkomstpunkten för att leverera väntande data vid angiven tid skivor, och anpassning justerar krafttillståndet för de mobila stationer. Det föreslagna systemet är nästan teoretiskt optimalt för energibesparing i den meningen att det avsevärt minskar effekten av bakgrundstrafik, minimerar stationens tomgångstid och maximerar dess energiutnyttjande. Omfattande analyser och simuleringar genomförs för att utvärdera det nya protokollet. Våra resultat visar att det ger betydande energibesparing över den oplanerade PSM, särskilt under omständigheter där flera trafikströmmar samexisterar i ett nätverk. Dessutom uppnås besparingar till priset av endast en liten försämring av enkelriktade fördröjningsprestanda.
Baserat på nätsimuleringen uppgav REF att strömförbrukningen varierade med nätgenomströmning.
6,067,034
Scheduled PSM for Minimizing Energy in Wireless LANs
{'venue': '2007 IEEE International Conference on Network Protocols', 'journal': '2007 IEEE International Conference on Network Protocols', 'mag_field_of_study': ['Computer Science']}
82,082
Abstrakt. Personåteridentifiering är utmanande på grund av de stora variationerna av pose, belysning, ocklusion och kameravy. På grund av dessa variationer, är fotgängardata distribueras som högt böjda grenrör i funktionsutrymmet, trots de nuvarande konvolutionella neurala nätverk (CNN) kapacitet för funktionsextraktion. Distributionen är dock okänd, så det är svårt att använda det geodesiska avståndet vid jämförelse av två prover. I praktiken använder de nuvarande djupa inbäddningsmetoderna det euklideiska avståndet för träning och test. Å andra sidan, de mångahanda inlärningsmetoder föreslår att använda Euclidean avstånd i det lokala intervallet, kombinera med den grafiska relationen mellan prover, för att approximera det geodesiska avståndet. Ur denna synvinkel, välja lämplig positiv (dvs. Inomklass) träningsprover inom ett lokalt intervall är avgörande för utbildning CNN inbäddning, särskilt när data har stora intra-klass variationer. I detta dokument föreslår vi en ny måttlig positiv urvalsbrytningsmetod för att utbilda robust CNN för personåteridentifiering, som tar itu med problemet med stora variationer. Dessutom förbättrar vi inlärningen genom en metrisk viktbegränsning, så att den inlärda metriska har en bättre generaliseringsförmåga. Experiment visar att dessa två strategier är effektiva för att lära sig robusta djupa mätvärden för personåteridentifiering, och följaktligen överträffar vår djupa modell betydligt de senaste metoderna på flera riktmärken för personåteridentifiering. Därför kan den studie som presenteras i detta dokument vara användbar för att inspirera till nya konstruktioner av djupa modeller för personåteridentifiering.
Shi och Al. I REF föreslås en måttlig positiv gruvmetod för att använda metriska studier på distans för personer med reid-id.
15,636,047
Embedding Deep Metric for Person Re-identication A Study Against Large Variations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,083
Bred täckning av semantiska relationer mellan verb skulle kunna vara till nytta för många NLP-uppgifter. Vi presenterar en halvautomatisk metod för att extrahera finkorniga semantiska relationer mellan verb. Vi upptäcker likhet, styrka, antonymy, enablement, och temporal händer-före relationer mellan par av starkt associerade verb med hjälp av lexicosyntactic mönster över webben. På en uppsättning av 29.165 starkt associerade verbpar, gav vår extraktionsalgoritm 65.5% noggrannhet. Analys av feltyper visar att på relationsstyrkan uppnådde vi 75% noggrannhet. Vi tillhandahåller resursen, som kallas VERBOCEAN, för nedladdning på
Speciellt, VerbOcean REF extraherade finfördelade semantiska relationer mellan verb inklusive händelse-före relation med hjälp av lexico-syntaktiska mönster.
13,507,979
VerbOcean: Mining The Web For Fine-Grained Semantic Verb Relations
{'venue': 'SIGDAT Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,084
Vi studerar flera varianter av samordnat samförstånd i dynamiska nätverk. Vi utgår från en synkron modell, där kommunikationskurvan för varje omgång väljs av en motståndare i värsta fall. Nätverkstopologin är alltid ansluten, men kan ändras helt från en runda till en annan. Modellen fångar upp mobila och trådlösa nätverk, där kommunikation kan vara oförutsägbar. I detta sammanhang studerar vi de grundläggande problemen med ett eventuellt, samtidigt och samordnat samförstånd, liksom deras förhållande till andra distribuerade problem, såsom att bestämma nätverkets storlek. Vi visar att i avsaknad av en bra initial övre gräns på nätverkets storlek, är det slutliga samförståndet lika svårt som att beräkna deterministiska funktioner av indata, t.ex. det minsta eller högsta antalet ingångar till noderna. Vi ger också en algoritm för att beräkna sådana funktioner som är optimala i varje utförande. Därefter visar vi att samtidigt samförstånd aldrig kan uppnås i mindre än n − 1 rundor i varje utförande, där n är storleken på nätverket; följaktligen är samtidig konsensus lika svårt som att beräkna en övre gräns för antalet noder i nätverket. För Δ-koordinerat samförstånd visar vi att om förhållandet mellan noder med indata 0 och indata 1 begränsas bort från 1, är det möjligt att bestämma i tid n − på ( Δ nΔ), där Δ begränsar tiden från det första beslutet tills alla noder bestämmer. Om den dynamiska grafen har diametern D, är tiden att bestämma min {O(nD/Δ), n − (nΔ/D)}, även om D inte är känd i förväg. Slutligen visar vi att (a) det finns en dynamisk graf så att ingen nod kan bestämma innan tiden n − O(Δ 0.28 n 0,72 ), och (b) för någon diameter D = O(Δ), det finns en körning med diameter D där ingen nod kan bestämma innan tiden och (nD/Δ). Såvitt vi vet utgör vårt arbete den första studien av Δ-koordinerat samförstånd i allmänna grafer.
REF studerar problem med överenskommelser i detta sammanhang.
17,462,891
Coordinated consensus in dynamic networks
{'venue': "PODC '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,086
Visuell scenförståelse är en viktig förmåga som gör det möjligt för robotar att medvetet agera i sin omgivning. I detta dokument föreslår vi en ny djup neural nätverksstrategi för att förutsäga semantisk segmentering från RGB-D sekvenser. Den viktigaste innovationen är att utbilda vårt nätverk för att förutsäga multi-view konsekvent semantik på ett självövervakat sätt. Vid provtillfället kan dess semantiska förutsägelser sammansmältas mer konsekvent i semantiska keyframe-kartor än förutsägelser om ett nätverk som är utbildat i individuella vyer. Vi baserar vår nätverksarkitektur på en nyligen genomförd djupinlärningsstrategi för RGB och djupfusion för semantisk objektklasssegmentering och förbättrar den med flerskalig förlustminimering. Vi får kamerabanan med RGB-D SLAM och warp förutsägelserna av RGB-D bilder till mark-truth kommenterade ramar för att genomdriva multi-view konsistens under utbildningen. Vid provtillfället sammansmältes förutsägelser från flera vyer till nyckelramar. Vi föreslår och analyserar flera metoder för att genomdriva multi-view konsistens under utbildning och testning. Vi utvärderar nyttan av multi-view konsistens utbildning och visar att sammanslagning av djupa funktioner och fusion över flera vyer överträffar en-view baslinjer på NYUDv2 riktmärke för semantisk segmentering. Vårt end-to-end-utbildade nätverk uppnår toppmoderna prestanda på NYUDv2-datauppsättningen i en-view-segmentering samt multi-view semantisk fusion.
Mamma och Al. REF förutspådde semantisk segmentering från RGB-D sekvenser, men det är inte tillämpligt på glesa vyer.
6,813,232
Multi-view deep learning for consistent semantic mapping with RGB-D cameras
{'venue': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Computer Science']}
82,087
Mobile-edge computing (MEC) har framträtt som en framträdande teknik för att tillhandahålla mobila tjänster med höga beräkningskrav, genom att migrera de beräkningsintensiva uppgifterna från de mobila enheterna till de närliggande MEC-servrarna. För att minska prestanda latent och enhetsenergiförbrukning, i detta dokument, optimerar vi gemensamt uppgiften att avlasta schemaläggning och överföra effektallokering för MEC-system med flera oberoende uppgifter. En suboptimal algoritm med låg komplexitet föreslås för att minimera den viktade summan av fördröjningen och enhetens energiförbrukning baserat på alternerande minimering. Med tanke på tilldelning av sändningseffekt erhålls den optimala uppgiften att avlasta schemaläggningen, dvs. att bestämma avlastningsordningen, med hjälp av flödesbutikens schemaläggningsteori. Dessutom kommer den optimala överföringen effektallokering med en given uppgift offloading schemaläggning beslut att fastställas med hjälp av konvex optimering tekniker. Simuleringsresultat visar att det är viktigare att avlasta schemaläggningen när de tillgängliga radio- och beräkningsresurserna i MEC-systemen är relativt balanserade. Dessutom visas det att den föreslagna algoritmen uppnår en nästan optimal fördröjning av genomförandet tillsammans med en betydande energibesparing av enheten. Index Terms-Mobile-edge computing, task offloading schemaläggning, power control, flow shop schemaläggning, konvex optimering.
Simuleringsresultaten visar att avlastning av uppgifter säkerställer mindre fördröjning än konventionella tekniker REF.
206,862,605
Joint Task Offloading Scheduling and Transmit Power Allocation for Mobile-Edge Computing Systems
{'venue': '2017 IEEE Wireless Communications and Networking Conference (WCNC)', 'journal': '2017 IEEE Wireless Communications and Networking Conference (WCNC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,088
Abstract-Migrating beräkningsintensiva uppgifter från mobila enheter till mer påhittiga molnservrar är en lovande teknik för att öka beräkningskapaciteten för mobila enheter samtidigt som de sparar sin batterienergi. I det här dokumentet överväger vi ett MIMO multicell system där flera mobila användare (MUs) ber om beräkning av avlastning till en vanlig molnserver. Vi formulerar offloading problemet som den gemensamma optimeringen av radioresurser-överföringen precoding matriser av MUs-och beräkningsresurser-processor cykler / sekund tilldelas av molnet till varje MU-för att minimera den totala användarnas energiförbrukning, samtidigt som latency begränsningar. Det resulterande optimeringsproblemet är nonconvex (i den objektiva funktionen och begränsningar). I fallet med en enda användare kan vi ändå uttrycka den globala optimala lösningen i sluten form. I det mer utmanande fleranvändarscenariot föreslår vi en iterativ algoritm, baserad på en ny successiv konvex approximationsteknik, som konvergerar till en lokal optimal lösning av det ursprungliga icke-konvexa problemet. Sedan omformulerar vi algoritmen i en distribuerad och parallell implementation över radioåtkomstpunkterna, vilket kräver endast en begränsad samordning/signalering med molnet. Numeriska resultat visar att de föreslagna systemen överträffar olika optimeringsalgoritmer.
Sardellitti m.fl. gemensamt optimerade radioresurser och beräkningsresurser för att minimera de totala användarnas energiförbrukning med hjälp av binär offloading REF.
13,245,153
Joint Optimization of Radio and Computational Resources for Multicell Mobile-Edge Computing
{'venue': '2014 IEEE 15th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC)', 'journal': '2014 IEEE 15th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,089
Obemannade luftfartyg förväntas användas i stor utsträckning i framtida trådlös kommunikation på grund av fördelarna med hög rörlighet och enkel användning. De trådlösa kanalerna för sändning till mark för med sig en ny utmaning för informationssäkerheten i UAV-markkommunikationen. Detta dokument tar itu med en sådan utmaning i det fysiska skiktet genom att utnyttja rörligheten för UAV via sin bana design. Vi anser att en UAV-mark kommunikationssystem med flera potentiella tjuvlyssnare på marken, där informationen om platserna för tjuvlyssnare är ofullständig. Vi formulerar ett optimeringsproblem, som maximerar den genomsnittliga värsta fall sekretessen i systemet genom att gemensamt utforma den robusta banan och överföra kraft UAV under en given flygtid. Optimeringsproblemets icke konvexitet och den bristfälliga lokaliseringsinformationen för tjuvlyssnarna gör det svårt att lösa problemet på ett optimalt sätt. Vi föreslår en iterativ suboptimal algoritm för att lösa detta problem effektivt genom att tillämpa blockkoordinatmetoden, S-proceduren och successiv konvex optimeringsmetod. Simuleringsresultat visar att den föreslagna algoritmen kan förbättra den genomsnittliga värsta fallsekretessen avsevärt, jämfört med två andra referensalgoritmer utan robust design. Index Terms-UAV kommunikation, fysisk lagersäkerhet, banoptimering, strömkontroll, robust design.
I synnerhet beaktades inte UAV:s banor i 3D-utrymmet i REF, förmodligen på grund av den bristande konvexiteten och komplexiteten i de begränsningar som har samband med UAV:s rörlighet.
49,301,058
Robust Trajectory and Transmit Power Design for Secure UAV Communications
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,090
Abstract-High-radix hierarkiska nätverk är kostnadseffektiva topologier för storskaliga datorer. I sådana nätverk är routrar organiserade i supernoder, med lokala och globala sammanlänkningar. Dessa nätverk, kända som Dragonflies, överträffar traditionella topologier såsom flera träd eller tori, i kostnad och skalbarhet. Beroende på trafikmönstret kan dock överbelastning av nätet leda till försämrad prestanda. Misrouting (icke-minimal routing) kan användas för att undvika mättade globala eller lokala länkar. Med de nuvarande mekanismerna för undvikande av dödläge som används för dessa nätverk innebär stöd för felriktning dock routrar med ett större antal virtuella kanaler. Detta förvärrar de buffertminneskrav som utgör en av de viktigaste begränsningarna i högradixbrytare. I detta dokument introducerar vi två nya dödlägesfria routingmekanismer för Dragonfly-nätverk som stöder en adaptiv routing på flykten. Med hjälp av dessa system är det tillåtet att använda samma antal virtuella kanaler som i tidigare förslag. Opportunistic Local Misrouting får den bästa prestandan genom att ge den högsta routing friheten, och förlitar sig på ett dödläge-fri flyktväg till destinationen för varje paket. Det kräver dock Virtual Cut-Through flödeskontroll. Däremot förhindrar Restricted Local Misrouting uppkomsten av cykler tack vare en begränsning av de möjliga rutterna inom supernodes. Detta gör denna mekanism lämplig för både Virtual Cut-Through och Wormhole nätverk. Utvärderingar visar att de föreslagna dödlägesfria routingmekanismerna förhindrar de vanligaste patologiska frågorna i Dragonfly-nätverken. Som ett resultat av detta ger de bättre resultat än tidigare system, samtidigt som de kräver samma område som ägnas åt routerbuffertar.
Opportunistic Local Misrouting (OLM) som föreslås i REF tillåter icke-minimal routing på både lokala och globala nivåer i Dragonfly hierarkin och routing beslutet kan uppdateras vid alla humle.
9,363,742
Efficient Routing Mechanisms for Dragonfly Networks
{'venue': '2013 42nd International Conference on Parallel Processing', 'journal': '2013 42nd International Conference on Parallel Processing', 'mag_field_of_study': ['Computer Science']}
82,091
Under de senaste åren, på grund av den växande förekomsten av omärkta data, har stora ansträngningar gjorts av maskininlärning gemenskapen för att utveckla bättre förståelse och förbättra kvaliteten på klassificerare som utnyttjar omärkta data. Laplacian Support Vector Machines (LapSVMs) har visat den senaste teknikens prestanda i semiövervakad klassificering. I detta dokument presenterar vi två strategier för att lösa det primära LapSVM-problemet, för att övervinna vissa frågor i den ursprungliga dubbla formuleringen. Medan träning en LapSVM i dual kräver två steg, med hjälp av den ursprungliga formen kan vi kollapsa utbildning till ett enda steg. Dessutom minskas den beräkningsmässiga komplexiteten hos träningsalgoritmen från O(n 3 ) till O(n 2 ) med hjälp av förkonjugerad konjugatgradient, där n är det kombinerade antalet märkta och omärkta exempel. Vi påskyndar utbildningen genom att använda en strategi för tidigt stopp baserat på förutsägelsen om omärkta data eller, om det finns, på märkta valideringsexempel. Detta gör det möjligt för algoritmen att snabbt beräkna ungefärliga lösningar med ungefär samma klassificeringsnoggrannhet som de optimala, vilket avsevärt minskar träningstiden. På grund av dess enkelhet, kan träning LapSVM i primal vara utgångspunkten för ytterligare förbättringar av den ursprungliga LapSVM formulering, såsom de för att hantera stora datauppsättningar. Vi presenterar en omfattande experimentell utvärdering av verkliga data som visar fördelarna med det föreslagna tillvägagångssättet.
LapSVM (i primal) REF använder den förkonjugerade konjugatgradienten för att lösa optimeringsproblemet för multipler legalisering i den primära formen.
28,020
Laplacian Support Vector Machines Trained in the Primal
{'venue': None, 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,092
Mobiltelefonernas beräkningsförmåga har snabbt ökat, till den punkt där förstärkt verklighet har blivit möjlig på mobiltelefoner. Vi presenterar en strategi för indoor localization och utgör estimering för att stödja augmented reality-applikationer på en mobiltelefonplattform. Med hjälp av den inbyggda kameran lokaliserar applikationen enheten i en välbekant miljö och bestämmer dess orientering. När 6 DOF pose bestäms, 3D virtuella objekt från en databas kan projiceras in i bilden och visas för den mobila användaren. Datainhämtning offline består av att skaffa bilder på olika platser i miljön. Uppskattningen av onlineposen görs genom en funktionsbaserad matchning mellan mobilens bild och en bild som valts ut från databasen med hjälp av telefonens sensorer (accelerometer och magnetometer). Programmet gör det möjligt för användaren att både visualisera virtuella objekt i kamerans bild och lokalisera användaren i en bekant miljö. Vi beskriver i detalj processen för att bygga databasen och pose estimering algoritm som används på mobiltelefonen. Vi utvärderar algoritmprestandan samt dess noggrannhet när det gäller reprojiceringsavstånd för 3D-virtuella objekt i mobilbilden.
I sin tur presenterar REF en strategi för inomhus platsbaserad mobil augmented reality.
8,730,915
Location-based augmented reality on mobile phones
{'venue': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition - Workshops', 'journal': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition - Workshops', 'mag_field_of_study': ['Computer Science']}
82,093
I många problem kommer ingångarna till problemet med tiden. Eftersom varje insats tas emot måste den behandlas oåterkalleligt. Sådana problem är problem på nätet. En allt vanligare metod för att lösa online-problem är att lösa motsvarande linjära program, antingen direkt för problemet eller genom att lätta på integralens begränsningar. Vid behov avrundas den erhållna fraktioneringslösningen online för att erhålla en integrerad lösning. Vi ger algoritmer för att lösa linjära program med blandad packning och täcker begränsningar online. Vi överväger först blandad förpackning och täcker linjära program, där förpackning begränsningar Px ≤ p ges offline och täcker begränsningar Cx ≥ c tas emot online. Målet är att minimera den maximala multiplikativa faktor genom vilken eventuella förpackningsbegränsningar kränks, samtidigt som de täcker begränsningar. För allmän blandad förpackning och täcker linjära program, inga tidigare sublinjära konkurrerande algoritmer är kända. Vi ger den första sådana -en polylogaritmisk-konkurrenskraftig algoritm för att lösa blandade packning och täcka linjära program på nätet. Vi visar också en nästan tajt nedre gräns. Våra tekniker för övre gräns använder en exponentiell strafffunktion i samband med multiplikativa uppdateringar. Medan exponentiella strafffunktioner används tidigare för att lösa linjära program offline ungefärligt, offline algoritmer känner till begränsningarna i förväg och kan optimera girigt. Däremot, när begränsningar anländer online, uppdateringar måste vara mer komplexa. Vi använder våra tekniker för att lösa två problem med fasta nätavgifter med trängsel. Dessa problem är motiverade av applikationer i maskin schemaläggning och anläggningsplats. Det linjära programmet för dessa problem är mer komplicerat än blandpackning och täckande, och innebär unika utmaningar. Vi visar att våra tekniker i kombination med en randomiserad avrundningsprocess kan användas för att få polylogaritmiska konkurrenskraftiga integrerade lösningar. Dessa problem generalisera online set-cover, för vilken det finns en polylogaritmisk lägre gräns. Våra resultat är därför nära förestående. † Dartmouth College, 6211 Sudikoff Lab, Hannover NH 03755. {umang,
Sådana blandade packning/täckande LPs användes också för att få en online-algoritm för kapacierad anläggning plats REF.
7,095,781
Online Mixed Packing and Covering
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,094
Inflytande maximering är problemet med att hitta en uppsättning användare i ett socialt nätverk, så att genom att rikta denna uppsättning, maximerar man den förväntade spridningen av inflytande i nätverket. Merparten av litteraturen om detta ämne har uteslutande fokuserat på den sociala grafen, med utsikt över historiska data, d.v.s. spår av tidigare aktionsförökningar. I denna uppsats studerar vi hur maximering påverkar ett nytt databaserat perspektiv. I synnerhet inför vi en ny modell, som vi kallar kreditdistribution, som direkt utnyttjar tillgängliga spridningsspår för att lära sig hur påverkansflöden i nätverket och använder detta för att uppskatta förväntad påverkansspridning. Vår strategi lär sig också de olika nivåerna av inflytande hos användarna, och den är tidsmedveten i den meningen att den tar hänsyn till inflytandets tidsmässiga natur. Vi visar att influensmaximering enligt kreditdistributionsmodellen är NP-hård och att den funktion som definierar förväntad spridning under vår modell är submodulär. Baserat på dessa utvecklar vi en approximationsalgoritm för att lösa det påverkansmaximeringsproblem som på en gång har hög noggrannhet jämfört med standardmetoden, samtidigt som det är flera storleksordningar snabbare och mer skalbara.
Goyal m.fl. REF föreslog CD-modellen för att lösa problemet med influensmaximering och uppskattade direkt influenssannolikheten bland användare genom historiska data från användare.
13,331,388
A Data-Based Approach to Social Influence Maximization
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
82,095
Abstrakt. Vi föreslår en metod för att förutsäga mänsklig egocentrisk visuell uppmärksamhet med hjälp av nedifrån-och-upp visuell styrka och information om egorörelser. Beräkningsmodeller för visuell hälsa används ofta för att förutsäga människans uppmärksamhet, men dess mekanism och effektivitet har inte utforskats fullt ut i egocentriska visioner. Syftet med vårt ramverk är att beräkna uppmärksamhetskartor från en egocentrisk video som kan användas för att dra slutsatser om en persons visuella uppmärksamhet. Förutom en vanlig visuell bärkraftsmodell beräknas två typer av uppmärksamhetskartor baserat på kamerans rotationshastighet och rörelseriktning. Dessa rotationsbaserade och översättningsbaserade uppmärksamhetskartor sammanställs med en nedifrån-och-upp-karta för att öka den noggrannhet med vilken personens blickpositioner kan förutses. Effektiviteten i det föreslagna ramverket undersöktes i verkliga miljöer med hjälp av en huvudmonterad blickspårare, och vi fann att de egorörelsebaserade uppmärksamhetskartorna bidrog till att exakt förutsäga människans visuella uppmärksamhet.
Yamada m.fl. REF har utnyttjat information om nedifrån-och-upp-nivå och egorörelse för att förutsäga uppmärksamhet (salienskartor) och har därefter granskat hur de fungerar med hjälp av huvudmonterade ögonspårare.
10,643,792
Attention prediction in egocentric video using motion and visual saliency
{'venue': 'PSIVT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,096
Regenererande koder är en klass av distribuerade lagringskoder som optimalt byter den bandbredd som behövs för reparation av en misslyckad nod med mängden data som lagras per nod i nätverket. Minimum Storage Regenerating (MSR) koder minimera först, mängden data som lagras per nod, och sedan reparation bandbredd, medan Minimum Bandwidth Regenerating (MBR) koder utför minimeringen i omvänd ordning. En [n, k, d] regenererande kod gör det möjligt att återställa data genom att ansluta till någon k i n noderna i nätverket, samtidigt som det krävs att reparation av en misslyckad nod möjliggörs genom att ansluta (med länkar av mindre kapacitet) till någon d noder. Tidigare, explicita och allmänna konstruktioner av exakta regenererande koder har begränsats till fallet n = d + 1. I detta dokument presenterar vi optimala, explicita konstruktioner av MBR-koder för alla möjliga värden av [n, k, d] och MSR-koder för alla [n, k, d ≥ 2k − 2], med hjälp av ett produkt-matrisramverk. Den särskilda produktmatrisen hos konstruktionerna har visat sig avsevärt förenkla systemets funktion. Såvitt vi vet är dessa de första konstruktionerna av exakta regenererande koder som tillåter antalet n noder i det distribuerade lagringsnätet, att väljas oberoende av de andra parametrarna. Papperet innehåller också en enklare beskrivning, i produktmatrisramen, av en tidigare konstruerad MSR-kod där parametern d uppfyller [n = d + 1, k, d ≥ 2k − 1].
En konstruktion av optimala regenererande koder med exakt reparation vid MBR-punkten för alla n, k, d föreslogs av Rashmi et al. Hoppa över det.
3,132,259
Optimal Exact-Regenerating Codes for Distributed Storage at the MSR and MBR Points via a Product-Matrix Construction
{'venue': 'IEEE Transactions on Information Theory, vol. 57, no. 8, pp. 5227 - 5239, August 2011', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,097
Abstract-Millimeter-våg (mmWave) kommunikation är en lovande möjliggörande teknik för hög hastighet (Giga-bit) multimedia applikationer. På grund av den höga utbredningsförlusten vid 60 GHz-bandet bryts dock signaleffekten i mm avsevärt över avstånd. Därför kan ett trafikflöde som överförs över flera korta humlearter uppnå högre genomströmning än det över ett enda långt humle. I detta papper utformar vi först ett humlevalsmått för piconet-regulatorn (PNC) för att välja lämpliga relähop för ett trafikflöde, som syftar till att förbättra flödets genomströmning och balansera trafikbelastningarna över nätverket. Vi föreslår sedan en multi-hop samtidig överföring (MHCT) system för att utnyttja den rumsliga kapaciteten i mmWave WPANs genom att tillåta noder att överföra samtidigt i kommunikationslänkar utan att orsaka skadlig störning. Analysen av samtidig överföringsannolikhet och tidsdelning multiplexing visar att MHCT-systemet kan förbättra utnyttjandet av ankomst- och avgångstider. Omfattande simuleringar genomförs för att validera analysresultaten och visa att det föreslagna MHCT-systemet kan förbättra det genomsnittliga trafikflödet och nätgenomströmningen.
I REF, är ett multi-hop samtidig överföringssystem utvecklas för att övervinna problemet länk avbrott och för att öka flödet genomströmning.
13,578,734
Enabling Multi-Hop Concurrent Transmissions in 60 GHz Wireless Personal Area Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,098
Många maskininlärning algoritmer kräver att indata representeras som en fast längd funktion vektor. När det gäller texter, en av de vanligaste fasta längd funktioner är påse-of-words. Trots sin popularitet, bag-of-word funktioner har två stora svagheter: de förlorar beställningen av orden och de ignorerar också semantik av orden. Till exempel är "starka", "starka" och "Paris" lika avlägsna. I det här dokumentet föreslår vi stycke Vector, en oövervakad algoritm som lär sig en fast längd funktion representationer från variabla längd bitar av texter, såsom meningar, stycken, och dokument. Vår algoritm representerar varje dokument av en tät vektor som är tränad att förutsäga ord i dokumentet. Dess konstruktion ger vår algoritm potential att övervinna svagheterna i påse-ofwords modeller. Empiriska resultat visar att Punkt Vektorer överträffar bag-of-word modeller samt andra tekniker för textrepresentationer. Slutligen uppnår vi nya toppmoderna resultat på flera textklassificerings- och känsloanalysuppgifter.
I synnerhet punktvektorer REF är en förlängning av ord 2vec för lärande fast längd distribuerade representationer från texter av godtycklig längd.
2,407,601
Distributed Representations of Sentences and Documents
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,099
Abstract Emerging-program som personliga portaler, företagssökning och system för webbintegration kräver ofta sökordssökning över halvstrukturerade vyer. Det är dock troligt att traditionella metoder för informationssökning kommer att bli dyra i detta sammanhang, eftersom de bygger på antagandet att den uppsättning dokument som söks materialiseras. I det här dokumentet presenterar vi en systemarkitektur och algoritm som effektivt kan utvärdera sökordssökningar över virtuella (omaterialiserade) XML-vyer. En intressant aspekt av vårt synsätt är att det utnyttjar index som finns på basdata och därmed undviker att materialisera stora delar av synen som inte är relevanta för frågeresultaten. En annan egenskap hos algoritmen är att genom att enbart använda index, kan vi fortfarande poäng resultat av frågor över den virtuella vyn, och de resulterande poäng är samma som om vyn materialiserades. Vår prestandautvärdering med hjälp av data från INEX i Quark (Bhaskar et al.
Problemet med sökordssökning på virtuella (dvs. icke materialiserade) XML-vyer togs upp av Shao et al. Hoppa över det.
736,994
Efficient keyword search over virtual XML views
{'venue': 'The VLDB Journal', 'journal': 'The VLDB Journal', 'mag_field_of_study': ['Computer Science']}
82,100
Abstract -Kriminalitet är en allt vanligare företeelse i Storbritannien. Ett pågående forskningsprogram undersöker människans förmåga att upptäcka om en person, fångad på CCTV, bär ett skjutvapen. I den nuvarande undersökningen hävdar vi att observatörer reagerar på signaler som individer i sig producerar medan de bär ett dolt skjutvapen. Dessa signaler kan återspeglas i kroppsspråket hos dem som bär skjutvapen och kan gripas av observatörer på en medveten eller undermedveten nivå. Simulerade CCTV-filmer genererades av personer som fungerade som övervakningsobjekt och som bar, dolda på sina personer, antingen skjutvapen eller matchade ofarliga föremål. Utbildade CCTV-operatörer och lekmän tittade sedan på dessa bilder och ombads ange om de trodde att övervakningsmålet var att bära ett skjutvapen eller inte. Storleken på inflytandet av att bära ett skjutvapen på ett övervakningsobjekts ångestnivå befanns vara relaterad till det antal gånger som individen ansågs bära ett skjutvapen. Övervakningsmålets ångestnivå var dock inte relaterad till känslighet vid upptäckt av skjutvapen. Ett test av förmågan att avkoda kroppsspråk visade inte heller att observatörernas förmåga att läsa kroppsspråk var relaterad till förmågan att upptäcka ett dolt skjutvapen. Dessa första resultat ger viss insikt i möjligheten att använda ett övervakningsobjekts kroppsspråk för att avgöra om de döljer ett vapen och om en sådan förmåga kan förvärvas genom övervakning utbildning och erfarenhet.
I REF, utbildade CCTV-operatörer och lekmän tittade på filmmaterial och ombads ange om de trodde att övervakningsmålet var att bära ett skjutvapen.
17,577,626
Skills in detecting gun carrying from CCTV
{'venue': '2008 42nd Annual IEEE International Carnahan Conference on Security Technology', 'journal': '2008 42nd Annual IEEE International Carnahan Conference on Security Technology', 'mag_field_of_study': ['Computer Science']}
82,101
Bakgrund: Även om minnesförsämring är det huvudsakliga symtomet på Alzheimers sjukdom (AD), kan språkförsämring vara en viktig markör. Relativt få studier av språk i AD kvantifierar försämringar i uppkopplat tal med hjälp av beräkningstekniker. Mål: Vi strävar efter att visa toppmodern noggrannhet genom att automatiskt identifiera Alzheimers sjukdom från korta berättande prover som framkallas med en bildbeskrivning uppgift, och att avslöja de framträdande språkliga faktorerna med en statistisk faktoranalys. Metoder: Data härleds från DementiaBank corpus, från vilka 167 patienter som diagnostiserats med "möjlig" eller "sannolik" AD ger 240 berättande prover, och 97 kontroller ger ytterligare 233. Vi beräknar ett antal språkliga variabler från utskrifter, och akustiska variabler från tillhörande ljudfiler, och använder dessa variabler för att träna en maskin lär klassificerare för att skilja mellan deltagare med AD och friska kontroller. För att undersöka graden av heterogenitet av språkliga försämringar i AD, följer vi en undersökande faktor analys av dessa mått av tal och språk med en sned promax rotation, och ge tolkning för de resulterande faktorerna. Resultat: Vi får en toppmodern klassificeringsnoggrannhet på över 81% när det gäller att särskilja individer med AD från personer utan att basera sig på korta urval av deras språk på en bildbeskrivningsuppgift. Fyra tydliga faktorer framträder: semantisk försämring, akustisk abnormitet, syntaktisk försämring och informationsnedsättning. Slutsats: Modern maskininlärning och språklig analys kommer att bli allt mer användbar vid bedömning och klusterering av misstänkt AD.
Fraser, Ref kunde skilja individer med trolig AD från individer utan AD med endast korta prover av deras verbala svar på en bild beskrivning uppgift.
7,357,141
Linguistic Features Identify Alzheimer’s Disease in Narrative Speech
{'venue': "Journal of Alzheimer's disease : JAD", 'journal': "Journal of Alzheimer's disease : JAD", 'mag_field_of_study': ['Psychology', 'Medicine']}
82,102
Abstrakt. Ubiquitous in-network caching är en av de viktigaste aspekterna av informationscentriska nätverk (ICN) som nyligen har fått brett forskningsintresse. I ett av de viktigaste relevanta förslagen som kallas Networking Named Content (NNC) är premissen att utnyttja cachelagring i nätverk för att lagra innehåll i varje nod som den passerar längs leveransvägen kan förbättra leveransen av innehåll. Vi ifrågasätter en sådan urskillningslös universell cachingstrategi och undersöker om caching mindre faktiskt kan uppnå mer. Specifikt, vi undersöker om caching endast i en delmängd av nod(er) längs innehåll leveransvägen kan uppnå bättre prestanda när det gäller cache och server träffhastigheter. I detta papper studerar vi först beteendet hos NNC: s allmänt förekommande caching och observera att även naiv slumpmässig caching på en mellanliggande nod inom leveransvägen kan uppnå liknande och, under vissa förhållanden, ännu bättre caching vinst. Vi föreslår en centralitetsbaserad cachingalgoritm genom att utnyttja begreppet (ego-nätverk) mellanhet centralitet för att förbättra caching-vinsten och eliminera osäkerheten i utförandet av den förenklade slumpmässiga caching-strategin. Våra resultat tyder på att vår lösning konsekvent kan uppnå bättre vinst över både syntetiska och verkliga nätverk topologier som har olika strukturella egenskaper. Nyckelord: Informationscentriska nätverk, cache, mellanhet centralitet. Informationscentriska nätverk (ICN) har nyligen fått stor uppmärksamhet, med olika forskningsinitiativ (t.ex. [4] och COMET [5] ) inriktade på detta framväxande forskningsområde. Huvudskälet till att förespråka avvikelsen från det nuvarande paradigmet för värd-till-värd-kommunikation till ett informations-/innehållscentrerat är att Internet för närvarande huvudsakligen används för tillgång till och leverans av innehåll, med en stor mängd digitalt innehåll (t.ex. 3D/HD-filmer, foton etc.) levereras till användare som bara är intresserade av det faktiska innehållet snarare än källplatsen. Som sådan behöver vi inte längre ett innehållsdistributionsramverk som stöds på inhemsk nivå. Medan Internet var utformat för och fortfarande fokuserar på värd-till-värd-kommunikation, ICN skiftar betoningen till innehåll objekt som kan cache och nås från var som helst inom nätverket snarare än från slutvärdarna bara. I ICN frikopplas innehållsnamn från värdadresser och skiljer effektivt rollen som identifierare och sökare i tydlig kontrast till nuvarande IP-adresser som tjänar båda syftena. Namnge innehåll direkt gör det möjligt att utnyttja caching i nätverk för att förbättra leveransen av populärt innehåll. Varje innehållsobjekt kan nu unikt identifieras och autentiseras utan att associeras till en specifik värd. Detta möjliggör applikationsoberoende cachelagring av innehållsbitar som kan återanvändas av andra slutanvändare som begär samma innehåll. I själva verket är en av de framträdande ICN-funktionerna i nätverk caching, med potentiellt varje nätverkselement (dvs router) caching alla innehåll fragment 1 som passerar det; i detta sammanhang, om en matchande begäran tas emot medan ett fragment fortfarande är i sin cache butik, kommer det att vidarebefordras till den begärande från det elementet, undvika att gå hela vägen till värdservern. Av de nuvarande ICN-metoderna förespråkar NNC [2] sådan urskillningslös innehållscachelagring. Vi hävdar att en sådan urskillningslös universell cachingstrategi är onödigt kostsam och suboptimal och försöker studera alternativa cachingstrategier i nätverk för att förbättra den övergripande prestandan för innehållsleverans. Vi tar upp den centrala frågan om caching endast vid en viss delmängd av noder på väg leveransvägen kan uppnå bättre vinst. Om ja, vilka är dessa noder att cache och hur kan vi välja dem? Vårt bidrag i denna studie är trefaldigt. För det första bidrar vi till förståelsen av allestädes närvarande caching i nätverkssystem genom att ge insikter i dess beteende för specifika topologityper. För det andra visar vi att selektiv istället för allestädes närvarande caching kan uppnå högre vinst även när man använder förenklade slumpmässiga urvalssystem. För det tredje föreslår vi ett centraliserat system för cachelagring genom att utnyttja begreppet (ego-nätverk) mellanhet som härrör från området för komplexa/sociala nätverksanalyser, där endast utvalda noder i innehållsleveransvägen cacheinnehåll. Motivet bakom en sådan selektiv caching strategi är att vissa noder har högre sannolikhet att få en cach hit jämfört med andra och genom att strategiskt caching innehållet vid "bättre" noder, kan vi minska cache vräkningsfrekvensen och, därför, öka den totala cach hit takten. I nästa avsnitt definierar vi systemet av intresse och layout våra argument och logik med ett motiverande exempel som illustrerar att caching mindre kan vara mer. Vi beskriver sedan vårt centralitetsbaserade cachesystem som genomgående kan överträffa allestädes närvarande cachelagring. Vi genomför en systematisk simuleringsstudie som undersöker parameterutrymmet för caching-systemen, som skiljer sig från det befintliga arbetet i nätverksanslutna caches som oftast anser topologier med mycket regelbunden struktur (t.ex. sträng- och trädtopologier [6] [7] [8]), med innehållskällan(erna) vanligtvis placerad på roten av topologin tvingar en känsla av riktning på innehållsflöden för dragbar modellering och approximation. Vi presenterar resultat för både vanliga och icke-regelbundna topologier, inklusive skalfria topologier vars egenskaper imiterar den verkliga Internettopologin.
I REF undersöker författarna om en cachepolicy som omfattar hela nätverket är fördelaktig och kvantitativt visar att cachelagring endast vid en undergrupp av noder baserade på nätverkscentralitet kan ge bättre prestanda.
192,552,459
Cache “less for more” in information-centric networks
{'venue': 'in Proc. of the IFIP-TC6 Networking Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,103
Abstract-In markbundna kommunikationsnät utan fast infrastruktur, obemannade luftfartyg (UAV) monterade mobila basstationer (MBS) ger en effektiv lösning för att uppnå trådlös anslutning. Detta brev syftar till att minimera det antal MBS som behövs för att tillhandahålla trådlös täckning för en grupp distribuerade markterminaler (GT), vilket säkerställer att varje GT ligger inom kommunikationsområdet på minst en MBS. Vi föreslår en polynom-tid algoritm med successiv MBS placering, där MBS placeras sekventiellt börjar på området omkretsen av de avslöjade GTs längs en spiralväg mot centrum, tills alla GTs är täckta. Varje MBS placeras för att täcka så många obetäckta GTs som möjligt, med högre prioritet till GTs på gränsen för att minska förekomsten av avvikande GTs som var och en kan kräva en dedikerad MBS för sin täckning. Numeriska resultat visar att den föreslagna algoritmen presterar gynnsamt jämfört med andra system i termer av det totala antalet MBS och / eller tid komplexitet. Index Terms-Obemannade luftfarkoster, mobil basstation placering, användartäckning, geometriska skivomslag problem I. INLEDNING Med sin manövrerbarhet och ökande överkomlighet har obemannade luftfartyg (UAV) många potentiella tillämpningar i trådlösa kommunikationssystem [1]. I synnerhet kan UAV-monterade mobila basstationer (MBS) användas för att tillhandahålla trådlös anslutning i områden utan infrastrukturtäckning såsom slagfält eller katastrofscener. Till skillnad från markbaserade basstationer (BS), även de som är monterade på markfordon, kan UAV-monterade MBS placeras på vilken plats som helst och röra sig längs vilken bana som helst som begränsas endast av deras flygegenskaper, för att täcka markterminalerna (GT) i ett visst område baserat på deras kända platser. När UAV-GT-kanalerna domineras av line-of-sight (LOS) länkar använder författarna i [2] en K-means klusteralgoritm för att partitionera GTs som ska betjänas av p UAVs, medan varje UAV har en kapacitetsbegränsning och de icke-stödda GTs betjänas av de fasta mark BS. Författarna i [3] anta en probabilistisk LOS kanalmodell och studera den 3-dimensionella (3D) placeringen av en enda antenn BS för att avlasta så många GTs som möjligt från marken BS. I detta brev utgår vi från att GT-platserna är kända och att UAV:erna flyger på en fast höjd H, medan UAV-GT-kanalerna domineras av LOS-länkar vars kanalkvalitet huvudsakligen beror på UAV-GT-avståndet. Vi anser att scenariot där inga mark BS är tillgängliga och UAVmonterade MBS är backhaul-anslutna via satellitlänkar, medan varje MBS har en motsvarande täckningsradie av r projicerad på marken, som visas i Bild. 1................................................................ Vi fokuserar därmed på MBS placeringsproblem för att tillhandahålla trådlös täckning för alla GTs inom ett givet område. Detta kan formuleras som Geometriska Disk Cover (GDC) problem [4], vars mål är att täcka en uppsättning K noder (GT) i en region med det minsta antalet
Lyu m.fl. REF övervägde problemet med att minimera antalet UAV samtidigt som den trådlösa täckningsprestandan garanteras, för att ytterligare minska systemkostnaden.
3,524,845
Placement Optimization of UAV-Mounted Mobile Base Stations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,104
Strömma ljud- och videotillämpningar blir allt populärare på Internet, och bristen på effektiv trängselkontroll i sådana tillämpningar är nu en källa till stor oro. Problemet är att anpassa komprimeringen utan att kräva video-servrar för att omkoda data, och montera den resulterande strömmen i den snabbt varierande tillgängliga bandbredden. Samtidigt kommer snabba kvalitetsfluktuationer att störa användarna och bör undvikas. I detta dokument presenterar vi en mekanism för att använda skiktad video i samband med överbelastningskontroll. Denna kvalitet anpassningsmekanism lägger till och släpper lager av videoströmmen för att utföra långsiktig grovkornsanpassning, samtidigt som man använder en TCP-vänlig trängselkontrollmekanism för att reagera på trängsel på mycket korta tidsperioder. Missmatchningarna mellan de två tidsskalorna absorberas med hjälp av buffertning vid mottagaren. Vi presenterar ett effektivt system för fördelning av buffertar mellan de aktiva skikten. Vårt system gör det möjligt för servern att handla kortsiktiga förbättringar för långsiktig utjämning av kvalitet. Vi diskuterar de frågor som är involverade i att implementera och justera en sådan mekanism, och presenterar våra simuleringsresultat.
Reza REF lyckades avslöja den viktiga effekten av buffert och trängsel på den perceptuella QoS videoströmningen.
271,525
Quality adaptation for congestion controlled video playback over the Internet
{'venue': "SIGCOMM '99", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,105
Medan multicore hårdvara har blivit allestädes närvarande, har explicit parallella programmeringsmodeller och kompilator tekniker för att utnyttja parallellism på dessa system tydligt släpat efter. Stream programmering är en modell som har bred tillämplighet i multimedia, grafik och signalbehandling domäner. Strömmande modeller kör som en uppsättning oberoende aktörer som uttryckligen kommunicerar data via kanaler. Detta dokument presenterar en kompilatorteknik för att planera och orkestrera utförandet av streaming applikationer på multicore plattformar. En integrerad utveckling och partitionering steg baserat på heltal linjär programmering presenteras som utvecklar data parallella aktörer som behövs och maximalt packar aktörer på kärnor. Därefter är aktörerna tilldelade att pipeline steg på ett sådant sätt att all kommunikation är maximalt överlappade med beräkning på kärnorna. För att underlätta experiment, en generaliserad kodgenerering mall för att kartlägga programvaran rörledning till Cell arkitektur presenteras. För en rad strömmande applikationer uppnås en geometrisk genomsnittlig hastighetsökning på 14,7x på en 16-kärnig cellplattform jämfört med en enda kärna.
Kudlur och Mahlke REF beskriver en integrerad expansion och partitionering metod baserad på heltal linjär programmering som expanderar aktörer som behövs med målet att maximera den totala arbetsbelastningen på processorer.
14,266,902
Orchestrating the execution of stream programs on multicore platforms
{'venue': "PLDI '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,106
Syftet med ett Network Intrusion Detection System är att upptäcka påträngande, skadliga aktiviteter eller policykränkningar i en värd eller värdnätverk. I de nuvarande nätverken blir sådana system allt viktigare i takt med att antalet och mångfalden av attacker ökar tillsammans med mängden och känsligheten hos den information som utbyts. Detta är av särskilt intresse för Internet of Things-nätverken, där ett system för att upptäcka intrång kommer att vara avgörande när dess ekonomiska betydelse fortsätter att växa, vilket gör det till fokus för framtida intrångsattacker. I detta arbete föreslår vi en ny metod för att upptäcka intrång i nätet som är lämplig för ett Internet of Things-nätverk. Den föreslagna metoden bygger på en villkorlig variantal autoencoder med en specifik arkitektur som integrerar intrångsetiketterna inuti dekoderlagren. Den föreslagna metoden är mindre komplex än andra oövervakade metoder baserade på en variationell autoencoder och ger bättre klassificeringsresultat än andra välbekanta klassificeringar. Ännu viktigare är att metoden kan utföra funktionsrekonstruktion, det vill säga att den kan återställa saknade funktioner från ofullständiga träningsdataset. Vi visar att återuppbyggnadsnoggrannheten är mycket hög, även för kategoriska drag med ett stort antal tydliga värden. Detta arbete är unikt i nätverket intrång detektion fält, presentera den första tillämpningen av en villkorlig variationsfri autoencoder och ge den första algoritmen för att utföra funktionsåterställning.
I REF föreslog författarna ett system för att upptäcka intrång baserat på en villkorlig variationsfri autoenkoder (CVAE).
829,398
Conditional Variational Autoencoder for Prediction and Feature Recovery Applied to Intrusion Detection in IoT
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,107
Inmatning (Bicubic) Target VDSR URDGN SRResNet FSRNet (Ours) FSRGAN (Ours) Figur 1: Visuella resultat av olika super-upplösningsmetoder. Face Super-Resolution (SR) är ett domänspecifikt problem med superupplösning. Ansiktets förkunskaper kan utnyttjas till bättre super-upplösta ansiktsbilder. Vi presenterar en ny djup end-to-end trainingable Face Super-Resolution Network (FSRNet), som använder sig av geometrin före, dvs., ansikts landmärke värmekartor och tolkning kartor, för att supersolidera mycket låg upplösning (LR) ansiktsbilder utan välriktade krav. Specifikt, vi först konstruera en grov SR-nätverk för att återställa en grov hög upplösning (HR) bild. Därefter skickas den grova HR-bilden till två grenar: en fin SR-kodare och ett tidigare informationsuppskattningsnätverk, som extraherar bildfunktionerna, och uppskattar landmärkena värmekartor/parseringskartor respektive. Både bildfunktioner och tidigare information skickas till en fin SR-avkodare för att återställa HR-avbildningen. För att generera realistiska ansikten, föreslår vi också Ansikte Super-Resolution Generative Adversarial Network (FSRGAN) att införliva den kontradiktoriska förlusten i FSRNet. Vidare introducerar vi två relaterade uppgifter, ansikte anpassning och tolkning, som de nya utvärderingsmått för ansikte SR, som behandlar inkonsekvensen av klassiska mätvärden w.r.t. synuppfattning. Omfattande experiment visar att FSRNet och FSRGAN avsevärt överträffar konstens tillstånd för mycket LR ansikte SR, både kvantitativt och kvalitativt.
I REF föreslog författarna ett fint SR-nätverk med ansiktsdrag.
4,564,405
FSRNet: End-to-End Learning Face Super-Resolution with Facial Priors
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,108
Recurrent neural networks (RNN) och convolutional neural networks (CNN) används i stor utsträckning i NLP uppgifter för att fånga de långsiktiga respektive lokala beroendena. Uppmärksamhetsmekanismerna har på senare tid väckt ett enormt intresse på grund av deras mycket parallella beräkning, betydligt mindre utbildningstid och flexibilitet i modellering av beroenden. Vi föreslår en ny uppmärksamhetsmekanism där uppmärksamheten mellan element från ingångssekvenser är riktad och multidimensionell, dvs. funktionsmässigt. Ett lätt neuralt nät, "Directional Self Attention Network (DiSAN)", föreslås sedan att lära mening inbäddning, baserat enbart på den föreslagna uppmärksamheten utan någon RNN/CNN struktur. DiSAN består endast av ett riktningsblock med tidsföljd kodad, följt av en flerdimensionell uppmärksamhet som komprimerar sekvensen till en vektorrepresentation. Trots denna enkla form överträffar DiSAN komplicerade RNN/CNN-modeller på både förutsägelsekvalitet och effektivitet. Det uppnår den bästa testnoggrannheten bland alla meningskodningsmetoder och förbättrar det senaste bästa resultatet med ca 1,0% på Stanford Natural Language Inference (SNLI) datauppsättningen, och visar den senaste testnoggrannheten på Stanford Sentiment Treebank (SST), Sents Involving Compositional Knowledge (SICK), TREC Question-type Classification och Multi-Genre Natural Language Inference (MultiNLI) datauppsättningar.
Och REF försökte koda den tidsmässiga ordningen och införde en riktad självuppmärksamhet som endast består av riktningsordning.
19,152,001
DiSAN: Directional Self-Attention Network for RNN/CNN-free Language Understanding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,109
Abstract-This paper study the uplink of a cloud radio access network (C-RAN) where the cell sites are connected to a cloudcomputing-based central processor (CP) with loudless backhaul links with finited kapacitets. Vi använder oss av ett enkelt kompress och framåtschema där basstationer (BS) kvantifierar de mottagna signalerna och skickar de kvantifierade signalerna till CP med hjälp av antingen distribuerad Wyner-Ziv-kodning eller enanvändarkomprimering. CP avkodar kvantiseringskodorden först och avkodar sedan användarmeddelandena som om fjärranvändarna och molncentralen bildar en virtuell fleråtkomstkanal (VMAC). I detta dokument formuleras problemet med att optimera kvantiseringsbullernivåerna för viktad totalhastighetsmaximering under en total kapacitetsbegränsning i backhaul. Vi föreslår en omväxlande konvex optimeringsmetod för att hitta en lokal optimal lösning på problemet effektivt, och ännu viktigare, fastställa att ställa in kvantisering bullernivåer att vara proportionell mot bakgrundsbuller nivåer är nära optimal för summeringsgrad maximering när signal-till-kvantisering-brusförhållandet (SQNR) är hög. Med Wyner-Ziv-kodningen visar sig dessutom den ungefärliga kvantiseringsbullernivån uppnå upplänk C-RAN-modellens sammanlagda kapacitet inom ett konstant gap. Med en-användare kompression, en liknande konstant-gap resultat erhålls under en diagonal dominant kanal villkor. Dessa resultat leder till en effektiv algoritm för fördelning av backhaulkapaciteten i C-RAN. Det föreslagna systemets resultat utvärderas för praktiska flercelliga och heterogena nät. Det visas att multicellig bearbetning med optimerad kvantisering bullernivåer över BS kan avsevärt förbättra prestandan för trådlösa cellulära nätverk. Index Terms-Cloud radio access nätverk, multicell bearbetning, komprimera och framåt, Wyner-Ziv komprimering, heterogent nätverk, nätverk MIMO, samordnade multipoint (CoMP)
Istället för att använda bullriga nätverkskodningar visar vårt tidigare arbete REF att successiv avkodning kan uppnå den sammanlagda kapaciteten för upplänk C-RAN till inom konstant gap, om fronthaullänkarna utsätts för en total kapacitetsbegränsning.
14,010,470
Optimized Backhaul Compression for Uplink Cloud Radio Access Network
{'venue': 'IEEE Journal on Selected Areas in Communications, vol.32, no.6, pp.1295--1307, June 2014', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,110
Abstrakt. Stora svaga nyckelklasser av IDEA hittas för vilka medlemskap testas med en differential-linjär test samtidigt kryptera med en enda nyckel. I synnerhet, en i varje 2-tums nycklar för 8.5-runda IDEA är svag. En relaterad-nyckel differential-linjär attack på 4-runda IDEA presenteras som är framgångsrik för alla nycklar. Stora svaga nyckelklasser finns för 4,5-6,5-runda och 8-runda IDEA för vilka medlemskap i dessa klasser testas med hjälp av liknande relaterade differential-linjära tester.
År 1998 presenterade Hawkes Ref en relaterad viktig differentialattack på fyra omgångar IDEA.
18,048,055
Differential-Linear Weak Key Classes of IDEA
{'venue': "Advances in Cryptology --- EUROCRYPT '98 Proceedings", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,111
Vi undersöker problemet med att lära sig diskreta, oriktade grafiska modeller på ett differentierat privat sätt. Vi visar att tillvägagångssättet att släppa bullrig tillräcklig statistik med hjälp av Laplace-mekanismen leder till en bra kompromiss mellan integritet, nytta och praktiskhet. En naiv inlärningsalgoritm som använder den bullriga tillräckliga statistiken "som är" överträffar allmänna ändamål differentialt privata inlärningsalgoritmer. Den har dock tre begränsningar: den ignorerar kunskap om processen för att generera data, vilar på osäkra teoretiska grunder och uppvisar vissa patologier. Vi utvecklar ett mer principfast tillvägagångssätt som tillämpar formalismen hos kollektiva grafiska modeller för att göra en slutledning över den sanna tillräckliga statistiken inom en förväntningsmaximering ram. Vi visar att detta lär sig bättre modeller än konkurrerande metoder för både syntetiska data och verkliga mänskliga mobilitetsdata som används som fallstudie.
Ref överväga uppgiften att privat lära parametrarna för en oriktad grafisk modell.
2,334,513
Differentially Private Learning of Undirected Graphical Models using Collective Graphical Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,112
Detta papper beskriver en ny målaralgoritm som är kapabel att fylla i hål i överlappande textur och tecknade bildlager. Denna algoritm är en direkt förlängning av en nyligen utvecklad glesrepresentationsbaserad bild (2004) 132]). I denna förlängning, saknade pixlar passar naturligt in i separationsramen, producerar separata lager som en biprodukt av inpainting processen. I motsats till det inpainting system som föreslagits av Bertalmio et al., där bild sönderdelning och infyllningssteg separerades som två block i ett övergripande system, betraktar det nya tillvägagångssättet separation, hålfyllning och denoisering som en enhetlig uppgift. Vi visar resultatet av det nya tillvägagångssättet via flera exempel. 2005 Elsevier Inc. Alla rättigheter förbehållna.
Författare i REF föreslog en målaralgoritm för att fylla i hål i överlappande struktur och/eller tecknad bildsyntes.
5,671,048
Simultaneous cartoon and texture image inpainting using morphological component analysis (MCA)
{'venue': None, 'journal': 'Applied and Computational Harmonic Analysis', 'mag_field_of_study': ['Mathematics']}
82,113
Neurala nätverk är både beräkningsintensiva och minnesintensiva, vilket gör dem svåra att distribuera på inbyggda system med begränsade hårdvaruresurser. För att ta itu med denna begränsning, introducerar vi "djup kompression", en trestegs pipeline: beskärning, utbildad kvantisering och Huffman kodning, som arbetar tillsammans för att minska lagringskravet för neurala nätverk med 35× till 49× utan att påverka deras noggrannhet. Vår metod först beskär nätverket genom att lära sig bara viktiga anslutningar. Därefter kvantifierar vi vikterna för att tvinga fram viktdelning, slutligen använder vi Huffman-kodning. Efter de två första stegen tränar vi om nätverket för att finjustera de återstående anslutningarna och de kvantiserade centroiderna. Beskärning, minskar antalet anslutningar med 9× till 13×; Kvantisering minskar sedan antalet bitar som representerar varje anslutning från 32 till 5. På ImageNet dataset, vår metod minskade lagring som krävs av AlexNet med 35×, från 240MB till 6,9MB, utan förlust av noggrannhet. Vår metod minskade storleken på VGG-16 med 49× från 552MB till 11,3MB, igen utan förlust av noggrannhet. Detta gör det möjligt att montera modellen i on-chip SRAM cache snarare än off-chip DRAM minne. Vår komprimeringsmetod underlättar också användningen av komplexa neurala nätverk i mobila applikationer där applikationens storlek och nedladdningsbandbredd begränsas. Benchmarked på CPU, GPU och mobil GPU, komprimerat nätverk har 3× till 4× lagervis speedup och 3× till 7× bättre energieffektivitet.
Djupkompression REF av Han et al., innebär beskärning, klustring av vikter och Huffman kodning för att minska storleken på nätverk, uppnå en minskning av minnesanvändning med en faktor på 35 till 49 i VGGNet.
2,134,321
Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding
{'venue': 'ICLR 2016', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,114
Irony är en viktig enhet i mänsklig kommunikation, både i vardagliga samtal och i skrivna texter inklusive böcker, webbplatser, chattar, recensioner och Twitter-meddelanden bland annat. Särskilda fall av ironi och sarkasm har studerats i olika sammanhang men, såvitt vi vet, först nyligen har den första offentligt tillgängliga corpus inklusive kommentarer om huruvida en text är ironisk eller inte publicerats av Filatova (2012). Ingen baslinje för klassificering av ironiska eller sarkastiska utvärderingar har dock angivits. Med detta dokument strävar vi efter att minska denna klyfta. Vi formulerar problemet som en övervakad klassificeringsuppgift och utvärderar olika klassificeringar och når ett F 1-mått på upp till 74 % med logistisk regression. Vi analyserar effekten av ett antal funktioner som har föreslagits i tidigare forskning samt kombinationer av dem.
REF gav en viktig baslinje för ironidetektion på engelska genom att bedöma effekterna av egenskaper som använts i tidigare studier och utvärdera dem med flera klassificeringar.
14,728,943
An Impact Analysis of Features in a Classification Approach to Irony Detection in Product Reviews
{'venue': 'WASSA@ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,115
Sedan uppfinningen av word2vec [28, 29], har hoppa-gram modellen avsevärt avancerat forskningen av nätverk inbäddning, såsom den senaste utvecklingen av DeepWalk, LINE, PTE, och node2vek metoder. I detta arbete visar vi att alla ovan nämnda modeller med negativ provtagning kan förenas i matris factorization ram med slutna former. Vår analys och bevis avslöjar att: (1) DeepWalk [31] empiriskt producerar en lågvärdig omvandling av ett näts normaliserade Laplacian-matris; (2) LINE [37] är i teorin ett specialfall av DeepWalk när storleken på hörnens sammanhang är satt till en; (3) Som en förlängning av LINE, PTE [36] kan ses som den gemensamma faktoriseringen av flera nätverk Laplacians; (4) node2vec [16] faktoriserar en matris relaterad till den stationära distributionen och övergångssannolikheten tensor av en 2: a ordningen slumpmässig gång. Vi tillhandahåller vidare de teoretiska kopplingarna mellan skip-gram-baserade nätverk inbäddande algoritmer och teorin om graf Laplacian. Slutligen presenterar vi NetMF metod 1 samt dess approximation algoritm för datornätverk inbäddning. Vår metod erbjuder betydande förbättringar över DeepWalk och LINE för konventionella nätverksbrytningsuppgifter. Detta arbete lägger den teoretiska grunden för hoppa-gram baserade nätverk inbäddning metoder, vilket leder till en bättre förståelse av latent nätverk representation lärande.
Den senaste utvecklingen av nätverk inbäddning utlöses till stor del av representation lära sig naturligt språk bearbetning REF.
3,952,914
Network Embedding as Matrix Factorization: Unifying DeepWalk, LINE, PTE, and node2vec
{'venue': "WSDM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,116