From professional translators, enterprises, web pages and freely available translation repositories.
wipe cache partition
manque d'amorçage de stockage
Last Update: 2023-01-09
Usage Frequency: 1
Quality:
Reference:
set to the block size of the cache partition.
définir ce paramètre à la taille d'un bloc de la partition du cache.
Last Update: 2018-02-13
Usage Frequency: 1
Quality:
Reference:
a method according to any preceding claim, wherein the number of addressable storage locations in each cache partition is alterable.
procédé selon l'une quelconque des revendications précédentes, dans lequel le numéro des emplacements de mémorisation adressable dans chaque partition de cache est modifiable.
Last Update: 2014-12-04
Usage Frequency: 2
Quality:
Reference:
the cache partition size is determined according to the working set requirement of the tasks during its execution, which is monitored dynamically or statically.
la taille d'une partition cache est déterminée selon l'exigence d'espace de travail d'une tâche pendant son exécution qui est surveillée dynamiquement ou statiquement.
Last Update: 2014-12-03
Usage Frequency: 1
Quality:
Reference:
method and apparatus for dynamic resizing of cache partitions based on the execution phase of tasks
mÉthode et appareil de redimensionnement dynamique de partitions cache en fonction de la phase d'exÉcution de tÂches
Last Update: 2014-11-25
Usage Frequency: 4
Quality:
Reference:
Warning: Contains invisible HTML formatting
this is achieved in one of the described embodiments by including with the address of an item a set of partition selector bits which allow a partition mask to be generated to identify into which cache partition the item may be loaded.
dans l'un des modes de réalisations décrits, ce processus consiste à inclure, avec l'adresse d'un article, un ensemble binaires sélecteur de partitions, ce qui permet de produire un masque de partition, afin d'identifier la partition de l'antémémoire dans laquelle l'article peut être chargé.
Last Update: 2011-07-27
Usage Frequency: 1
Quality:
Reference:
an approach for dynamically resizing cache partitions based on the execution phase of the application tasks is provided.
l'invention concerne également une approche de redimensionnement dynamique de partitions cache en fonction de la phase d'exécution de tâches d'application.
Last Update: 2014-12-03
Usage Frequency: 1
Quality:
Reference:
the access policy typically represents an access restriction to particular cache partitions, such as a restriction to one or more particular cache ways or one or more particular cache lines
la réglementation d'accès représente typiquement une restriction d'accès à des partitions de mémoire cache particulières, notamment une restriction vers un chemin de mémoire cache particulier, ou vers plusieurs lignes de mémoire cache particulières
Last Update: 2014-12-03
Usage Frequency: 1
Quality:
Reference:
a cache system is provided which includes a cache memory and a cache refill mechanism which allocates one or more of a set of cache partitions in the cache memory to an item in dependence on the address of the item in main memory
l'invention concerne un système d'antémémoire comprenant une antémémoire ainsi qu'un mécanisme de remplissage de celle-ci, lequel attribue à un article, dans cette antémémoire, au moins un ensemble partitions d'antémémoire, en fonction de l'adresse de cet article dans la mémoire principale
Last Update: 2011-07-27
Usage Frequency: 1
Quality:
Reference:
the present invention will improve the cache utilization by avoiding unnecessary reservation of the cache partitions for the executing application tasks during the entire duration of their execution and hence an effective utilization of the cache is achieved.
la présente invention améliorera l'utilisation du cache en évitant une réservation non nécessaire des partitions du cache pour les tâches d'application s'exécutant pendant la durée entière de leur exécution et permettant ainsi d'obtenir une utilisation efficace du cache.
Last Update: 2011-07-27
Usage Frequency: 1
Quality:
Reference:
a cache system is provided which includes a cache memory and a cache refill mechanism which allocates one or more of a set of cache partitions in the cache memory to an item in dependence on the address of the item in main memory. this is achieved in one of the described embodiments by including with the address of an item a set of partition selector bits which allow a partition mask to be generated to identify into which cache partition the item may be loaded.
l'invention concerne un système d'antémémoire comprenant une antémémoire ainsi qu'un mécanisme de remplissage de celle-ci, lequel attribue à un article, dans cette antémémoire, au moins un ensemble partitions d'antémémoire, en fonction de l'adresse de cet article dans la mémoire principale. dans l'un des modes de réalisations décrits, ce processus consiste à inclure, avec l'adresse d'un article, un ensemble binaires sélecteur de partitions, ce qui permet de produire un masque de partition, afin d'identifier la partition de l'antémémoire dans laquelle l'article peut être chargé.
Last Update: 2011-07-27
Usage Frequency: 1
Quality:
Reference:
with a split score cache, the learning may be performed in split neighbor scoring loops, with the first loop operating on separate score cache partitions, and warming the score cache partitions for the second loop.
avec ce cache de résultat scindé l'apprentissage peut se faire en boucles voisines de résultats scindées, la première boucle opérant avec des cloisons de caches de résultats séparées et la deuxième boucle gardant les cloisons de cache.
Last Update: 2011-07-27
Usage Frequency: 1
Quality:
Reference:
in a parallel system, multiple threads operate in parallel to perform network structure learning. a global score cache is partitioned into multiple split score caches, which may in one embodiment include associating a score cache with a node of the structure to be learned. with a split score cache, the learning may be performed in split neighbor scoring loops, with the first loop operating on separate score cache partitions, and warming the score cache partitions for the second loop.
dans un système en parallèle, plusieurs filières opèrent en parallèle pour réaliser un apprentissage de structure de réseau, un cache de résultat global est scindé en plusieurs caches de résultat scindés, qui, dans une exécution peuvent consister à associer un cache de résultat avec un noeud de la structure à apprendre. avec ce cache de résultat scindé l'apprentissage peut se faire en boucles voisines de résultats scindées, la première boucle opérant avec des cloisons de caches de résultats séparées et la deuxième boucle gardant les cloisons de cache.
Last Update: 2011-07-27
Usage Frequency: 1
Quality:
Reference: